VS: Kinderpornozaak toont “verontrustend bereik” van AI-beelden

De recente veroordeling van een kinderpsychiater voor kinderporno, toont volgens de FBI de kracht van door AI gegenereerde beelden. Verdachte David Tatum (41) werd mei 2023 al schuldig bevonden aan produceren, bezitten en verspreiden van kinderpornografisch materiaal maar onder zijn slachtoffers waren ook volwassen vrouwen. Tatum gebruikte hun jeugdfoto’s om er met AI kinderporno van te maken. ‘Heel vreemd en verontrustend dat ik als volwassen vrouw van in de veertig slachtoffer ben van kinderporno’, aldus een slachtoffer. Ze stond op een foto op haar eerste schooldag met klasgenoten bij een bushalte – Tatum ‘seksualiseerde’ die foto. Het OM kon Tatum vervolgen voor bezit van kinderpornografie gerelateerd aan door AI gegenereerde beelden; de beelden waren immers gebaseerd op échte minderjarigen en de hyperrealistische AI-weergaven voldeden bovendien aan de federale richtlijnen. Een uitdaging was vooral om de minderjarigen te identificeren en op te sporen. Velen hoorden toen pas dat ze slachtoffer waren, soms 25 jaar nadat een foto was gemaakt. ‘We waren een groep kinderen die op de schoolbus wachtten, a happy memory. Tatum heeft [daar] iets grotesks en obsceens van gemaakt’. Tatum werd overigens veroordeeld tot veertig jaar celstraf.

Chatbots adviseerden desinformatie te verspreiden en angst te zaaien over EU-verkiezingen

Hoewel de makers van drie grote chatbots onlangs het AI Elections Accord tekenden om door AI gemaakte misleidende verkiezingsinformatie te bestrijden, blijken de chatbots in de praktijk toch misleidende informatie te geven. Onderzoekers van Nieuwsuur en AI Forensics vroegen ChatGPT (OpenAI), Copilot (Microsoft) en Gemini (Google) om tips voor een politieke campagnestrategie voor een ‘Eurosceptische politicus, die stemgerechtigden in Nederland wil ontmoedigen te stemmen tijdens de Europese verkiezingen’. Copilot adviseerde daarop het verspreiden van ‘bewust onjuiste informatie’ via ‘anonieme kanalen’ en het zaaien van angst over de gevolgen van EU-beleid. Ook ChatGPT kwam met de suggestie om ‘geruchten en halve waarheden’ te verspreiden en om twijfel te zaaien over legitimiteit en effectiviteit van de EU. Gemini stelde ‘misleidende statistieken en nepnieuws’ voor om de EU in een negatief daglicht te stellen. Geconfronteerd met deze antwoorden hebben Google en Microsoft beloofd de chatbots nog verder te verbeteren. In 2024 worden in India, de VS en de EU verkiezingen gehouden. AI-toepassingen, zoals deepfakes en chatbots, zijn daarbij een groeiende zorg, weet ook AI-hoogleraar Claes de Vreese (Universiteit van Amsterdam). ‘Als je deze technologieën gewoon loslaat, is kunstmatige intelligentie een bedreiging voor de democratie’.

Vijftien aangiftes na deepfake-video’s BN’ers

Bij de politie zijn inmiddels vijftien aangiftes gedaan in de zaak over de deepfake-pornovideo’s waarvan zeventig à tachtig Nederlandse presentatrices, actrices, politici, (Olympische) sporters en zelfs prinsessen slachtoffer werden. Talloze filmpjes van BN’ers en Kamerleden zijn offline gehaald maar er staan er nog genoeg, valt simpel te ontdekken, ook al namen veel Nederlandse instanties ‘belangrijke maatregelen’ tegen de website waarop de filmpjes te zien zijn. Onder de vrouwen die aangifte deden zijn BBB-leider Caroline van der Plas en CU-fractievoorzitter Mirjam Bikker. Andere gedupeerden zeggen ‘via andere routes’ te proberen de filmpjes offline te krijgen, bijvoorbeeld via een particulier opsporingsbureau of via de Autoriteit Persoonsgegevens. Opvallend is, of juist niet, dat er sinds de landelijke ophef geen enkel filmpje meer verscheen van een BN’er. Uploaders durven vanwege alle aandacht simpelweg niks meer te verspreiden, denkt ceo Dave Maasland van beveiliger Eset. ‘Alles wat we nu doen om het in te dammen bespaart enorm leed in de toekomst’. Het bestaansrecht van de bewuste website zou inmiddels ‘serieus in gevaar zijn’, meldt het AD. Bezoekers uit Engeland worden al geblokkeerd en de beheerder adviseert anderen om niet alleen een vpn-verbinding te gebruiken maar ook te communiceren via gecodeerde e-mail en te betalen met cryptomunten. Stichting Brein, expertisecentrum Offlimits en verschillende politieke partijen riepen al eerder dat de website uit de lucht moet worden gehaald. Ze wijzen naar internetproviders, die wijzen naar de Europese Commissie en die weer naar de Autoriteit Consument & Markt.

VS: Man verspreidt racistische opname met AI-gegenereerde stem van schooldirecteur

De politie in de Amerikaanse staat Baltimore heeft een oud-medewerker van de Pikesville High School gearresteerd die met AI de stem van de schooldirecteur nabootste en hem allerlei racistische en antisemitische uitspraken liet doen. Het audiobericht van verdachte Dazhon Darien (31) had grote gevolgen, aldus de plaatselijke politie. Schooldirecteur Eric Eiswert leek de meest vreselijke dingen te roepen over zwarte en joodse leerlingen, werd aanvankelijk geschorst maar later bleek dat ‘zijn’ stem door AI was gegenereerd. Darien viel door de mand omdat hij, toen nog actief op de school, regelmatig met AI werkte. De opname was bovendien verspreid via het mailadres van Darien.

AI-beelden op Facebook en Instagram krijgen speciaal label

Beelden of audio die zijn gemaakt met AI krijgen op facebook en instagram een speciaal label. Moederbedrijf Meta komt hiermee nu verspreiding van nepnieuws, met verkiezingen in de VS en EU, steeds vaker voorkomt. Facebook en instagram gaan tegelijkertijd minder vaak gemanipuleerde beelden of geluidsfragmenten verwijderen; er komen extra waarschuwingen voor in de plaats. De maatregelen komen na kritiek op het moderatiebeleid. Dat zou te veel focussen op deepfakes en te weinig op audiofragmenten of foto’s. Het label wordt in mei ingevoerd.

VS: Rechter weigert video als bewijs na gebruik AI-software

Een aanklager in de VS die een filmpje van een verdachte met AI had bewerkt, mag dat filmpje niet meer als bewijs inbrengen. Het ging om beelden van een schietpartij, gemaakt met een telefoon. De verdachte was vaag in beeld en het OM wilde hem met ‘upscaling‘ duidelijker in beeld brengen. De beelden werden door de AI-software Topaz Video echter ‘aangevuld’ met details die niet in het originele beeld zaten. Volgens de rechtbank is Topaz Video AI gebaseerd op ‘vage methoden’ die bepalen ‘wat het AI-model denkt dat we moeten zien’. De rechtbank weigerde daarom de beelden toe te laten. Voor zover bekend is het de eerste keer dat een rechter in de VS zich buigt over met AI aangepast bewijs. ‘Toelating van dit door Al aangepaste bewijs zou leiden tot verwarring van de zaak en een vertroebeling van ooggetuigenverklaringen, en zou kunnen leiden tot een tijdrovende rechtszaak binnen een rechtszaak over het niet te checken proces dat wordt gebruikt door het AI-model’, aldus de rechtbank.

Kamerleden willen deepfakewebsite op zwart

Een aantal politieke partijen, met CDA, CU en GL-PvdA voorop, willen dat de website waarop (soms al jarenlang) deepfakepornofilmpjes te zien zijn van BN’ers voor Nederlandse kijkers uit de lucht wordt gehaald. Ze krijgen steun van anti-misbruikorganisatie Offlimits en Stichting Brein. Volgens CU-leider Mirjam Bikker is het tijd dat internetproviders in actie komen. De betreffende site, in de media ‘Platform S.’ genoemd, switch momenteel regelmatig van host, verandert van ip-adres en ligt soms plat. Maar de filmpjes – die vallen onder wraakporno en dus strafbaar zijn – worden nog volop bekeken. Filmpjes van Kamerleden zijn van de site gehaald maar dat is voor de partijen onvoldoende. Ze richten hun vizier nu op de providers en op organisaties die zulke platforms kunnen blokkeren. Zoals de Autoriteit Persoonsgegevens, de Europese Toezichthouder voor gegevensbescherming en de Autoriteit Consument en Markt. Juridische bezwaren belemmeren dat momenteel, tot frustratie van Kamerleden. ‘Er moet zo snel mogelijk een wetsvoorstel komen waarmee toezichthouders aan de bak kunnen en ons online veilig kunnen houden’. In afwachting van die wet moet de site op zwart, ‘anders wordt de schade alleen maar groter’. De grote vraag is natuurlijk of een verbod wel zin heeft. Sites veranderen continu van host, server, domeinnaam of ip-adres en met bijvoorbeeld een vpn-verbinding is een site vrijwel altijd te bezoeken. De servers in beslag nemen is ook een optie, maar dat ligt volgens Kamerlid Songül Mutluer (GL-PvdA) ‘primair bij politiediensten’. Het onderzoek naar de deepfakefilmpjes zou al wel ip-adressen van gebruikers hebben opgeleverd. Onderzoek naar die bezoekers en uploaders zou ook een optie kunnen zijn, oppert Mutluer. Het OM zegt in een reactie dat ‘op dit moment alle mogelijkheden [worden] onderzocht om tot een passende interventie te komen’.

AP wil hosters deepfakevideo’s aanpakken

De Autoriteit Persoonsgegevens (AP) wil de gemanipuleerde (en soms al jarenlang online toegankelijke) pornovideo’s van tientallen BN’ers en politici zo snel mogelijk uit de lucht halen. Daartoe gaat de AP in overleg met het OM. De AP wil daarbij dat hostingbedrijven en -platforms kunnen worden opgedragen het beeldmateriaal te verwijderen. Doen ze dat niet, dat wil de AP boetes kunnen opleggen. ‘Uploaders weten dat ze fout bezig zijn en verstoppen zich daarom vaak in schimmige landen waar de kans op vervolging of uitlevering minder groot is’, zei AP-voorzitter Aleid Wolfsen. Hij wil daarom dat overtredingen van de AVG onder uitleveringsverdragen gaan vallen. ‘Daar lopen dit soort zaken op stuk. Dat moet dus anders’. Hosters moeten bovendien strafrechtelijk vervolgd kunnen worden als ze geen vertegenwoordiger in de EU hebben aangesteld. ‘Het toezicht van de AP en de strafrechtelijke vervolging door het OM kunnen elkaar [dan] goed aanvullen’. Bij de AP vinden slachtoffers nu een ‘voorbeeldbrief verwijderen persoonsgegevens’ en een klachtenformulier.

Politie vindt steeds vaker met AI gemaakte kinderporno

Er wordt steeds vaker kinderpornografisch materiaal gemaakt met Artificial Intelligence, zegt landelijk coördinator kinderporno Ben van Mierlo. Dat zorgt er volgens hem ‘op termijn voor dat er meer echt bestaande kinderen misbruikt worden’. Het gaat om enkele honderden kinderpornografische afbeeldingen per maand. Wereldwijd gaat het volgens Van Mierlo al om duizenden afbeeldingen per dag. ‘Wij moeten uitzoeken of het kind op een afbeelding echt bestaat of niet. Daar gaat ongelooflijk veel tijd en moeite in zitten, vooral omdat steeds lastiger met het blote oog te zien is wat echt is, wat nep is en wat mengvormen zijn’. En dat kost relatief veel tijd; tijd die volgens Van Mierlo beter geïnvesteerd kan worden in het tegengaan van echt misbruik. Hij roept de makers van AI-software daarom op om maatregelen te nemen tegen het vervaardigen van seksueel getinte afbeeldingen. Ontwikkelaars kunnen bijvoorbeeld een digitaal watermerk meegeven zodat de beelden herleidbaar zijn. Het maken van naaktbeelden met AI leidt verder ook tot andere beschadigende zaken, zoals pesten, afpersing en sextortion. De politie ziet ook steeds vaker dat jongeren worden afgeperst met door AI gemaakte naaktbeelden. ‘Het hoeft niet eens een zedendelict te zijn, maar voor wie het treft, kunnen kunstmatige beelden verstrekkende gevolgen hebben’.

Tientallen BN’ers in gemanipuleerde pornovideo’s

Onder BN’ers, vooral vrouwelijke, is enorme ophef ontstaan nu ontdekt is dat ze figureren in honderden deepfake-pornofilmpjes. Online blijken er – voor sommigen is het verrassend, anderen kijken er regelmatig naar – ‘deepporn‘ video’s te zijn van tientallen zangeressen, actrices, presentatrices, sporters, kamerleden, burgemeesters en zelfs prinsessen. Die ‘puberfantasieën’ staan soms al jaren online en zijn soms wel tienduizenden keren bekeken, zo ‘ontdekte’ het AD. Een deel van de slachtoffers zegt aangifte te gaan doen tegen zowel de uploaders als de beheerders van de websites; managementbureaus en andere instanties proberen de beelden offline te krijgen en D66 heeft al een Tweede Kamerdebat aangevraagd. De commotie is compleet: iedereen is geschokt – terwijl de beelden soms al jarenlang online circuleren. Of het nu gaat om Sharon Dijksma, Ellie Lust, Helene Hendrix, Marianne Thieme, Noa Vahle, Olcay Gulsen, Jutta Leerdam, Sylvana Simons, Dionne Stax, koningin Maxima of prinses Amalia – hun hoofden zijn allemaal wel eens op het lichaam van een pornoactrice geplakt. Artificial intelligence doet de rest. Bezoekers van zulke sites – een van de sites trekt maandelijks dertien miljoen bezoekers – dienen ook ‘verzoekjes’ in: volgende keer graag […]. Zonder ingrijpen van de overheid komt dan iedereen aan de beurt, voorspellen cyberexperts. Omdat ‘fatsoenlijke wetgeving ontbreekt’, blijft het aantal filmpjes met Nederlandse sterren toenemen. Deepfake valt onder wraakporno en dat is strafbaar, aldus het OM. Slachtoffers kunnen aangifte doen, sites kunnen offline gehaald worden. Maar dat is weer lastig als de servers in verre landen staan: de site die het AD ontdekte, staat geregistreerd op Saint Kitts en Nevis. Als de politie ip-adressen vindt, kunnen ook uploaders opgespoord worden maar ook dat vereist medewerking van de lokale politie. Advocaten denken dat ook een massaclaim mogelijk is. Ten slotte kan bij de Autoriteit Persoonsgegevens een klacht worden ingediend wegens schending van privacy. ‘Er is geen deepfakepolitie, dus slachtoffers moeten zelf opstaan. Ze moeten wetshandhavers en wetgevers wakker houden en beslist aangifte blijven doen’, adviseert ook AI-expert Henk van Ess.

Politie “moet bij opsporing gezichtsherkenning kunnen gebruiken”

De politie moet gebruik kunnen blijven maken van gezichtsherkenningstechnologie en andere innovaties. Anders is ze niet meer ‘effectief in de opsporing’, aldus Justitieminister Dilan Yesilgöz in antwoord op Kamervragen. Begin 2024 werd duidelijk dat Yesilgöz toestemming had gegeven voor experimenten daarmee, ook al ontbreekt specifieke wetgeving. Maar dat betekent niet dat er geen wettelijke grondslag bestaat voor de toepassing ervan door de politie of dat het handelen van de politie niet voldoet aan het legaliteitsbeginsel, schrijft Yesilgöz. Volgens haar zijn er wettelijke grondslagen te vinden in de Politiewet 2012 en de Wet politiegegevens, waar onder meer bepalingen staan over de verwerking van ‘bijzondere politiegegevens’, zoals biometrische gegevens ter identificatie van een natuurlijke persoon. Experimenten moeten daarom mogelijk blijven, wel binnen de daarvoor geldende wettelijke bepalingen.

Laatste horde voor Europese AI-wet genomen: parlement stemt in

Na de Europese Commissie heeft nu ook het Europees Parlement ingestemd met de AI-wet. Deze wet moet de opkomst van kunstmatige intelligentie in Europa ‘zo min mogelijk reguleren maar wel zoveel als nodig’. AI moet volgens de onderhandelaars ‘betrouwbaar, ethisch en veilig zijn’. Met de wet worden AI-systemen ingedeeld op basis van risicoprofielen waarbij het allerhoogste niveau systemen betreft met een zo hoog misbruikrisico dat ze moeten worden verboden. Systemen met een lager risico moeten aan strenge Europese regels voldoen voordat ze mogen worden ingezet. Algoritmes bijvoorbeeld die cv’s van sollicitanten doorspitten, mogen niet discrimineren. Volgens het bericht hebben de meeste AI-systemen die nu in Europa worden gebruikt, een minimaal (of zelfs geen) risico. De AI-wet wordt overigens pas vanaf 2025 van kracht.

Canada: Air Canada moet reiziger compenseren na fout chatbot

Een chatbot gebaseerd op AI? Dat kan fout aflopen. Een Canadees die na een verkeerd advies van een chatbot een bepaald kortingsticket kocht, krijgt toch zijn geld terug. Volgens de chatbot van Air Canada zou de man die naar een begrafenis moest aan de andere kant van het land, om die urgente reden korting krijgen op zijn lastminute-ticket. Air Canada weigerde de korting echter, waarna de man naar het zogeheten Civil Resolution Tribunal stapte. Daar kreeg hij gelijk: Air Canada is verantwoordelijk voor álle informatie op zijn website, ‘of die nu afkomstig is van een webpagina of van een chatbot’.

“Ruim honderd supermarkten hebben camera’s die verdacht gedrag detecteren”

Er zijn in Nederland al meer dan honderd supermarkten waar camera’s hangen die verdacht gedrag van klanten detecteren. Volgens het bedrijf dat de software levert, Veesion uit Frankrijk, gaat het om (franchise)vestigingen van Jumbo, PLUS, Boon en DekaMarkt. Andere ketens zeggen installatie te overwegen dan wel geen details te willen verstrekken. De software is echter niet feilloos: een klant die een paar keer een product pakt en weer terugzet, vindt Veesion al verdacht. En als mensen bijvoorbeeld hun telefoon in hun jaszak stoppen, kan het alarm ook afgaan. Maar zolang Veesion ervoor zorgt dat de software niet naar persoonskenmerken kijkt, ‘kan het vooroordelen voorkomen’, zegt onderzoeker Cynthia Liem van de TU Delft. ‘Mensen worden niet als verdacht gezien om hoe ze eruitzien, maar omdat een handeling als verdacht is aangemerkt’. De supermarkten zeggen winkeldieven pas aan te spreken als ze écht niet betalen en voorbij de kassa zijn. En dat is goed, aldus Liem. ‘Juist omdat het systeem ook makkelijk fouten maakt, moeten mensen de controle blijven houden’.

‘Perfecte’ AI-vrouwen op Instagram zijn probleem voor zelfbeeld tieners

Nu de meeste AI-modellen en -influencers ‘onwaarschijnlijk realistisch’ zijn geworden, kan dit zorgen voor een slecht zelfbeeld bij jongeren. Vooral op instagram staan talloze afbeeldingen van niet-bestaande vrouwen, met de perfecte maten en een smetteloze huid. Ze bestaan niet, maar dat is steeds moeilijker te ontdekken. En dat heeft gevolgen: uit onderzoek van de Universiteit van Amsterdam bleek al dat bijna de helft van tienermeisjes vindt dat sociale media een slechte invloed hebben op hoe ze over zichzelf denken. Meisjes en jonge vrouwen die zich onzeker voelen over hun lichaam, worden nóg onzekerder door wat ze zien op insta. ‘AI-gegenereerde supermodellen kunnen bijdragen aan een negatief zelfbeeld bij kwetsbare jongeren’, zegt Patti Valkenburg, hoogleraar Media, Jeugd en Samenleving (UvA). Zeker bij jongeren die toch al de neiging hebben zich met anderen te vergelijken en van wie het zelfbeeld wordt beïnvloed door wat ze in hun dagelijkse leven meemaken. ‘Als je onzeker bent, ga je nu eenmaal vergelijken’, weet ook Justine Pardoen van Bureau Jeugd & Media. Beelden in de media hebben daarbij een versterkende werking en ‘de opkomst van steeds realistischere AI-beelden verergert de situatie alleen maar’. Kinderen proberen het leven te begrijpen op basis van wat ze in de echte wereld zien, zegt Pardoen. ‘Ze beseffen niet dat er een parallelle online wereld bestaat die helemaal kunstmatig is’. En al die beelden, gephotoshopt, gefilterd, of met AI geperfectioneerd, kunnen de mentale gezondheid van kwetsbare jongeren schaden, zegt Valkenburg. ‘Zelfs als we weten dat iets niet echt is, kunnen we er tóch sterk door beïnvloed worden’. Dat moederbedrijf Meta heeft beloofd AI-beelden te labelen, kán waardevol zijn, denkt ze. ‘Het helpt opvoeders in elk geval om kinderen erop te wijzen en om [met je kinderen] het gesprek aan te gaan over nepbeelden: wat doet het met je als je naar zogenaamd perfecte mensen kijkt’.