Het AI-model van Google onder Europees onderzoek
De Data Protection Commission (DPC) heeft vandaag aangekondigd een onderzoek in te stellen naar Google om te bepalen of het bedrijf de EU-wetgeving inzake gegevensbescherming heeft nageleefd bij de ontwikkeling van zijn AI-model, Pathways Language Model 2 (PaLM 2).
PaLM2 is een groot taalmodel dat wordt gebruikt in verschillende AI-diensten, waaronder e-mail samenvatting. Google heeft aangegeven dat het zal meewerken aan het onderzoek, zoals gemeld door het AP.
Het onderzoek zal beoordelen of Google een Gegevensbeschermingseffectbeoordeling (DPIA) had moeten uitvoeren om de potentiële risico’s voor de rechten en vrijheden van individuen van haar AI technologieën te evalueren.
Dit onderzoek maakt deel uit van de bredere inspanningen van de DPC om naleving van de gegevensbeschermingsregels in de AI-sector in heel Europa te garanderen. Grensoverschrijdende verwerking, die inhoudt dat gegevens over meerdere EU-landen worden behandeld of individuen in verschillende landen worden beïnvloed, staat onder bijzondere controle.
Generatieve AI-tools, bekend om het produceren van overtuigende maar valse informatie en het toegang krijgen tot persoonlijke gegevens, vormen aanzienlijke juridische risico’s, zoals opgemerkt door TechCrunch. De DPC, verantwoordelijk voor het waarborgen van de naleving van Google’s Algemene Verordening Gegevensbescherming (AVG).
Om deze reden kan de DPC boetes opleggen tot 4% van de wereldwijde jaaromzet van Google’s moederbedrijf Alphabet bij overtredingen, zoals gerapporteerd door TechCrunch.
Google heeft een reeks generatieve AI-tools ontwikkeld, waaronder de Gemini-serie van grote taalmodellen (voorheen Bard) die worden gebruikt voor verschillende toepassingen, waaronder het verbeteren van webzoekopdrachten via AI-chatbots, meldt TechCrunch.
Centraal in deze tools staat Google’s PaLM2, een fundamenteel LLM dat vorig jaar werd gelanceerd tijdens de I/O-ontwikkelaarsconferentie, aldus TechCrunch.
Vorige maand stond Elon Musk’s X ook onder toezicht van Europese toezichthouders vanwege het gebruik van gebruikersgegevens voor AI-training. De DPC startte een onderzoek na klachten dat X gebruikersgegevens in zijn Grok AI-technologie stopte zonder de juiste toestemming te verkrijgen. Hoewel X heeft ingestemd om de gegevensverwerking te beperken, heeft het geen sancties ondergaan.
Dit onderzoek maakt deel uit van de bredere inspanningen van de DPC om het gebruik van persoonsgegevens in de AI-ontwikkeling in de hele Europese Unie te reguleren. De recente invoering door de EU van de Kunstmatige Intelligentie Act markeert een significante stap richting het opzetten van een regelgevend kader voor AI-technologieën binnen het blok.
Laat een reactie achter
Annuleer