De Duidelijke Grens Tussen Echte En Door AI-GeGenereerde Video’s Kan In 2025 Verdwenen Zijn
AI-gegenereerde content is hier om te blijven. Het wordt steeds beter en we hebben een aanzienlijke verbetering gezien in AI-technologieën in 2024. Zullen we in 2025 nog kunnen onderscheiden wat echt is en wat niet?
Ik betrapte mezelf er onlangs op dat ik vroeg: “Is dat een echte vrouw?” – terwijl ik een beetje kneep met mijn ogen – na het zien van een post op Instagram. “Nee, dat moet AI-gegenereerd zijn,” concludeerde ik na een moment. Toen vroeg ik me meteen af: Zullen we volgend jaar nog binnen enkele seconden het verschil kunnen zien? Alle tekenen wijzen erop dat dit niet het geval is, vooral op sociale media, zoals recente grote ontwikkelingen in AI-technologie suggereren.
Een paar dagen geleden deelde Adam Mosseri, het hoofd van Instagram, een bericht over dit onderwerp op Threads. “Generatieve AI produceert duidelijk inhoud die moeilijk te onderscheiden is van opnames van de werkelijkheid, en verbetert snel,” schreef hij. Mosseri erkende openlijk dat ze bij Meta moeite hebben met het taggen van door AI gecreëerde inhoud en met het controleren en monitoren van de enorme hoeveelheden media die elke seconde op hun sociale media platforms worden gedeeld.
Mosseri ontsloeg Meta van verantwoordelijkheid en waarschuwde gebruikers dat het aan hen is om te onderscheiden of een bericht echt is of niet. “Het wordt steeds belangrijker dat de kijker, of lezer, een onderscheidende geest meebrengt wanneer ze inhoud consumeren die beweert een verslag of een opname van de werkelijkheid te zijn,” voegde hij eraan toe.
Slechts enkele dagen later, bracht OpenAI Sora Turbo uit, zijn krachtige AI-video-generator, waarmee Pro- en Plus-gebruikers realistische video’s kunnen genereren vanuit tekstprompts. Binnen enkele minuten begonnen gebruikers fascinerende realistische video’s te creëren en deze te delen op sociale media.
Net toen het leek alsof we een nieuw niveau van videoproductie hadden bereikt, maakte Google zijn nieuwste AI-videotool bekend, Veo 2, met een hogere resolutie en langere clips dan Sora. Uiteraard waren de resultaten die gedeeld werden door degenen die toegang hadden tot de geavanceerde technologie nog indrukwekkender.
“Niemand kan nu nog zeggen dat dit AI is,” schreef een gebruiker.
Het is voorbij.
Google Veo 2 heeft zojuist de concurrentie weggevaagd en is de nieuwe koning van de AI mediawereld geworden.
Niemand kan nu zeggen dat dit AI is.
10 wilde voorbeelden: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 december 2024
Het Gebeurt Al
Gedurende 2024 hebben we gezien hoe door AI gegenereerde inhoud invloed heeft gehad op bevolkingen, verkiezingen en sociale media gebruikers.
In januari kregen inwoners van New Hampshire een telefoontje “van Joe Biden” die hen vertelde niet te stemmen in de voorverkiezingen. Politiek consultant Steve Kramer zat achter deze truc en werd beboet met $6 miljoen voor de AI deepfake robocalls. Overheden beginnen te begrijpen welke impact AI kan hebben en landen zoals Singapore ontwikkelen wetten en strategieën om de bevolking te helpen deepfake inhoud te herkennen.
In Venezuela, verspreiden door AI gegenereerde video’s desinformatie—maar ze helpen ook journalisten om via AI avatars censuur te omzeilen.
Mensen hebben moeite om te onderscheiden wat echt is en wat niet, en dat is niet hun schuld: door AI gegenereerde inhoud wordt steeds beter en beter.
Hoogwaardige door AI gegenereerde inhoud is een groeiende business in al zijn vormen; tekst, audio en video. Veel OnlyFans creators vertrouwen momenteel op chatbots om gesprekken te voeren met hun fans, een taak die vroeger werd toegewezen aan gig-werknemers in landen met een laag inkomen. De nieuwe AI-modellen die gespecialiseerd zijn in flirttechnieken hebben zelfs $1.000 aan tips gegenereerd van hun volgers.
In april lanceerde de door Nvidia ondersteunde start-up Synthesia AI-avatars die menselijke emoties kunnen uiten en in 130 talen kunnen spreken. TikTok staat bedrijven toe om AI-gegenereerde advertenties te maken met behulp van Getty Images content, en nu kunnen YouTube-creators de nieuwe AI auto-dubbing functie gebruiken om hun content te vertalen in 9 talen en toekomstige updates zullen de oorspronkelijke stem repliceren.
Zoom werkt aan het creëren van AI-avatars die er precies uitzien als gebruikers om hen te helpen berichten op te nemen en zelfs deel te nemen aan vergaderingen. Deze tool wordt volgend jaar gelanceerd, maar mensen hebben al meerdere tools getest en bedrijven kunnen al fotorealistische AI-klonen creëren.
Weet je zeker dat je tijdens je laatste Zoom-gesprek met een echt persoon hebt gesproken?
Hoe te zien of het door AI is gemaakt? Voor nu
We leven in verwarrende tijden in dit digitale tijdperk. Filters kunnen iedereen eruit laten zien als een model met een vlekkeloze huid, en Photoshop-waardige correcties zijn slechts een klik verwijderd op Instagram of Snapchat – hoeveel mensen zouden hun “natuurlijke” beeld, imperfecties en al, willen delen wanneer het binnen enkele seconden kan worden verbeterd? We zien steeds meer advertenties met fotorealistische afbeeldingen gegenereerd door kunstmatige intelligentie, die langzaam maar zeker onze ogen overtuigen van hun vertrouwdheid en “normaliteit”. En elke dag maken verrassende gebeurtenissen over de hele wereld ons aan het twijfelen: wat is echt, en wat is dat niet meer?
De grote AI-bedrijven hebben gewerkt aan watermerken om hun door AI gegenereerde content te identificeren en gemakkelijk te herkennen. Google DeepMind lanceerde zijn open-source watermerksysteem in oktober om AI-video’s, teksten en audio te taggen, en Meta heeft er ook een opgenomen in zijn AI-videotool.
Maar de effectiviteit ervan is twijfelachtig, te beginnen met Meta die net erkent dat ze niet alle door AI gegenereerde content kunnen taggen. Kwaadwillende actoren kunnen nog steeds manieren vinden om de watermerken te verwijderen en er zijn meer wetten, partnerschappen en overeenkomsten nodig tussen sociale media bedrijven en overheden om een succesvoller systeem te bereiken.
Voor nu, naast het vertrouwen op ons onderbuikgevoel, kunnen we onszelf een paar vragen stellen voordat we iets delen op social media of geloven wat we zien:
- Net zoals Mosseri aanbevolen heeft, overweeg het volgende: Wie deelt deze informatie? Is dit een betrouwbare bron?
- Voelt de uitdrukking of beweging van de persoon robotachtig aan? Hoewel AI-avatars behoorlijk realistisch kunnen zijn, is het nog steeds mogelijk om een vreemde stijfheid of gebrek aan emotie te herkennen – hoewel je er rekening mee moet houden dat enkele bedrijven zoals Synthesia dit al verbeteren.
- Is de inhoud ontworpen om een sterke emotionele reactie uit te lokken? Kwaadwillende actoren weten hoe gemakkelijk we negatief nieuws delen en interactie hebben met emotioneel beladen materiaal op sociale media, en onderzoek bevestigt dit. Voordat je die inhoud deelt die je bloed deed koken om anderen net zo verontwaardigd te krijgen als jij, denk na over of het ontworpen is om controverse te veroorzaken of dat het eigenlijk echt nieuws of een echt evenement is.
- Kun je de inhoud verifiëren met andere bronnen? Dubbelchecken bij betrouwbare bronnen kan nooit kwaad.
En tot slot, heb je jezelf – of je favoriete chatbot – al gevraagd hoe je je kritisch denkvermogen kunt verbeteren? Het ontwikkelen van een kritische geest zou absoluut onder ieders goede voornemens voor het nieuwe jaar moeten vallen.
Laat een reactie achter
Annuleer