Fr

TECH

Meta en datavergaring

Maandag 26 Augustus 2024

Meta en datavergaring

Hoewel Meta External Agent, Meta's nieuwe crawler, in alle discretie gelanceerd werd, bleef hij niet lang onopgemerkt. De tool is bedoeld om zoveel mogelijk webcontent te verzamelen en daarmee AI-modellen te verrijken. De crawler van Meta kadert in de hectische race tussen de AI-reuzen en de plaats die Mark Zuckerberg wil veroveren. Hij sluit aan bij het rijtje van de vele bestaande tools, zoals de GPTbot van OpenAI en die van Anthropic en Perplexity, die allemaal hetzelfde doel hebben.

De discretie van Meta kan worden verklaard door het feit dat steeds meer sites, vooral nieuwssites, deze crawlers blokkeren uit angst om letterlijk geplunderd te worden. Dat kunnen ze door de naam van de crawler in te voeren in een klein bestand (robot.txt) dat op hun servers wordt geplaatst. Het is dus een soort opt-out techniek, waarvoor je de naam van de crawler in kwestie moet kennen.

Het bedrijf uit Menlo Park bleef ook heel stil over het verzamelen van informatie die gebruikers delen op zijn platforms, ook met de bedoeling zijn AI te verrijken. Meta paste in juni dit jaar zijn algemene voorwaarden aan in die richting, wat leidde tot een golf van klachten, waaronder eentje van Test-Aankoop bij de Data Protection Authority (DPA).

Archief / TECH