Fraudepoging met AI-kloon van bankdirecteur

In de week waarin acteur Tom Hanks waarschuwt voor een AI-versie van … Tom Hanks (die een tandartsverzekering aanprijst…) en voetballer Kevin De Bruyne dat doet voor een AI-filmpje met … Kevin De Bruyne (voor een internetgokbedrijf), blijkt dat oplichters ook stem en beeld van Bunq-topman Ali Niknam hebben misbruikt. De poging tot bankroof mislukte echter. Een werknemer van de bank kreeg een e-mail met een link naar een videogesprek met de gekloonde Niknam die vroeg een aanzienlijk bedrag over te maken. De werknemer trapte er niet in. Volgens Niknam was zijn ‘doppelgänger enorm overtuigend’. Omdat het live gebeurde, stuurde hij een waarschuwing de wereld in waarin hij praat over ‘Mission Impossible-achtige taferelen’. Dat de opmars van AI internetoplichters nieuwe wapens biedt, was al langer bekend. Vooral in de VS stijgt het aantal slachtoffers van voice cloning snel: de software presteert het best in de Engelse taal, hoewel leverancier Eleven Labs inmiddels ook in het Nederlands beschikbaar is. Mogelijk dat Niknam, die bij Bunq altijd in het Engels communiceert, daarom een interessant slachtoffer was. De casus laat zien ‘hoe belangrijk het is niet zomaar te vertrouwen op wat je hoort en ziet’, zegt een strategisch specialist digitaal van de politie. ‘Heb het erover met elkaar. En leer jezelf aan om, zodra iets onomkeerbaars wordt gevraagd zoals het overmaken van geld of delen van vertrouwelijke of persoonlijke gegevens, eerst zelf contact op te nemen’.

Spanje: Met AI gemaakte naaktfoto’s van meisjes verspreid

Van zeker twintig minderjarige meisjes (11-17 jaar) uit het dorp Almendralejo (zuid-west Spanje) zijn foto’s van hun socialemedia-accounts met AI bewerkt tot naaktfoto’s. Op de originele foto’s dragen ze wel kleding, op de AI-foto’s niet (meer). De politie heeft elf jongetjes, leeftijdsgenoten en vermoedelijk ook school- of klasgenoten, als mogelijke dader geïdentificeerd. De naaktbeelden, verspreid via Whatsapp en Telegram, werden ontdekt door de moeder van een van de meisjes. Die spreekt van een ‘barbaarse daad’ en een ‘zeer ernstige misdaad’. Ze roept de meisjes op het incident te melden bij de politie. Volgens het bericht zijn er meisjes die niet meer naar school durven of zelfs hun huis niet meer uitkomen.

Groot-Brittannie: Afschuw over nepfilmpje met vermoorde peuter op TikTok

In Groot-Brittannië is met afschuw gereageerd op een TikTokfilmpje waarin beelden van de (in 1993 vermoordde) peuter James Bulger met kunstmatige intelligentie zijn bewerkt. In het filmpje ‘vertelt’ de peuter wat er met hem is gebeurd, hoe hij is ontvoerd en gemarteld. Het jochie was 2 toen hij in 1993 door twee 10-jarigen werd ontvoerd uit een winkelcentrum en gedood. Dertig jaar later zorgt het filmpje voor veel verontwaardiging en verdriet. Het filmpje, gemaakt met oude foto’s van James en met AI bewerkt, is tienduizenden keren bekeken. James’ moeder eiste dat TikTok het filmpje verwijderde. Dat gebeurde, omdat er op het platform ‘geen plaats is voor content waarop beelden van jonge mensen worden bewerkt en getoond’. Niettemin blijft de video opduiken, net als filmpjes van andere vermiste of vermoorde kinderen. De twee moordenaars van Bulger kregen aanvankelijk levenslang, maar werden in 2001 vrijgelaten. Ze kregen een nieuwe identiteit. Zonder veel succes: Jon Venables, een van de twee, kwam meerdere keren opnieuw in de gevangenis terecht, zijn laatste veroordeling (voor bezit van kinderporno) was in 2017.

Cybersecuritybeeld 2023: “verwacht het onverwachte”

De digitale dreiging voor Nederland is in 2023 ‘onverminderd groot en verandert voortdurend’. Behalve statelijke actoren die geopolitieke doelen willen bereiken en criminelen die steeds vaker ransomware inzetten, zal ook ‘generatieve AI’ naar verwachting veel impact hebben op de veiligheid. Volgens het Cybersecuritybeeld Nederland 2023 moeten organisaties daarom ‘het onverwachte verwachten’ en hun beveiliging daarop inrichten. Cybercriminelen worden steeds slimmer, schrijft de NCTV, ‘omdat er veel geld mee te verdienen is’. Het rapport wijst op de scheefgroei tussen digitale dreiging en weerbaarheid maar ook op de ontwikkelingen rond generatieve AI. Die – voortschrijdende – technologie maakt het laagdrempeliger om malware te ontwikkelen, phishingmails te schrijven en nepnieuws te produceren. Met alle gevolgen van dien: wat is nog echt? De politie noemt in een reactie op het CSBN ransomware als ‘de grootste bedreiging‘ voor de digitale veiligheid. Criminelen versleutelen niet alleen computersystemen, maar stelen ook data om andere misdrijven mee te plegen. Dit raakt niet alleen organisaties, maar ook steeds meer burgers.

“AI-gegenereerde kinderporno circuleert op illegale markt”

Afgelopen jaar heeft AI voor het grote publiek een doorbraak beleefd. Van kunst en portretten gemaakt door AI tot artikelen en columns: de computer draait er zijn hand niet meer voor om. Ook pedofielen blijken die kunstmatige intelligentie nu te gebruiken om kinderporno te maken en te verkopen, zo meldt de BBC. De pornografische beelden worden gemaakt door AI-software geschreven opdrachten te geven. Volgens de BBC gebeurt dat onder meer met het programma Stable Diffusion, dat beelden creëert op basis van tekstuele aanwijzingen. De ‘open variant’ van het programma kent verder geen regels. De kunstmatige beelden worden, ook al niet verrassend, online verkocht en komen bijvoorbeeld terecht op Patreon, een platform waar gebruikers betalen voor ‘exclusieve content’. Patreon meldde de BBC al een toename te zien in kinderpornografisch materiaal. Naar eigen zeggen hanteert Patreon een zero tolerance beleid. Volgens de Britse politie kan kunstmatige intelligentie de toekomst van kinderporno gaan vormen. ‘Hoewel de beelden geen échte kinderen bevatten, kan het nog steeds schadelijk zijn’, zei NPCC-voorzitter Ian Critchley al. De introductie van AI bij kinderporno is een ‘doorslaggevend’ moment: ‘we can ensure that the internet and tech allows the fantastic opportunities it creates for young people – or it can become a much more harmful place’.

Europa stemt in met AI Act

Het Europees Parlement heeft een wet aangenomen die mensen moet beschermen tegen de gevaren van kunstmatige intelligentie. Deze AI Act, de eerste wet ter wereld op dit gebied, verbiedt biometrische surveillance in de publieke ruimte, zoals beveiligingscamera’s met gezichtsherkenningssoftware. Handhavers mogen geen systemen gebruiken die op basis van profilering voorspellen of iemand zich crimineel zal gaan gedragen. En materiaal dat is gegenereerd door kunstmatige intelligentie, zoals teksten die door het programma ChatGPT zijn geschreven, moet volgens de wet expliciet als AI-productie worden gelabeld. De AI Act werkt met een risicopiramide, met relatief ongevaarlijke AI-toepassingen (zoals het algoritme van Spotify) aan de onderkant, en systemen die beoordelen of mensen een uitkering of hypotheek krijgen, in het midden. Voor die categorie moeten veel (en strenge) regels gelden. In de hoogste risicocategorie gaat het om ‘aanbevelingsalgoritmes’ die worden gebruikt door socialemediaplatformen en om algoritmes die het stemgedrag van kiezers kunnen beïnvloeden. Volgens eurocommissaris Thierry Breton (interne markt) is er geen tijd te verliezen. Hij wil snel onderhandelen met techbedrijven als Facebook en OpenAI. Eind 2023 moet een definitieve versie van de AI Act klaar zijn, in 2026 moet de wet in werking treden.

“Wulpse vrouwen op sociale media” zijn vaak oplichters

Sociale media als facebook, instagram en snapchat worden overspoeld met nepaccounts van ‘wulpse vrouwen’ die ‘schunnige en erotische inhoud’ delen. Allerlei instanties, waaronder Bureau Jeugd en Media, waarschuwen kinderen voor deze ‘seksbots’, die liefde dan wel ‘geile naaktfoto’s’ beloven maar in werkelijkheid proberen geld af te troggelen. Zulke accounts zijn niks nieuws natuurlijk, ze bestaan al jaren, maar ze richten zich nu ook op kinderen, zegt mediapedagoog Jacqueline Kleijer. ‘De seksbots zijn reden tot zorg. Veel kinderen zijn helemaal niet klaar voor deze seksuele content. Zij moeten hiertegen beschermd worden, het liefst met een wet’. De oplichters, vooral uit het buitenland, zitten echter ook in Nederland. In Breda werd onlangs een ‘uitzendbureau’ opgerold dat nep-seksprofielen maakte. En dat werkt, zegt ook ESET-directeur Dave Maasland. Hij wijst op de enorme schaal van de oplichting. ‘Je zou kunnen zeggen dat dit de moderne variant is van Viagra-mails, maar met betere mogelijkheden om je doelgroep uit te kiezen’. De bots leren verder van elke fout: als een bot iets doet en daardoor verwijderd wordt, weet een volgende bot dat hij dit niet moet doen. De sleutel ligt, zoals wel vaker, bij de platforms. Die moeten straks voldoen aan de Digital Services Act (DSA), de EU-verordening die minderjarigen moet beschermen tegen schadelijke content. Of het probleem dan opgelost is, valt te betwijfelen. ‘Echte oplossingsrichtingen [..] zijn het inzetten van betere AI en het detectiealgoritme door techbedrijven zelf’, zegt Maasland. ‘Gebruik AI om dit soort accounts met vaak hetzelfde gedrag op te sporen’. Het artikel bevat tips om bots te herkennen: controleer de profielfoto en het aantal volgers.

China: Gebruiker ChatGPT opgepakt voor verspreiden nepnieuws

In China is een man opgepakt voor het verspreiden van nepnieuws, officieel ‘misbruik van kunstmatige intelligentie’. De man had ChatGPT een nieuwsbericht laten schrijven over een treinongeluk waarbij negen doden vielen. Het bericht werd via sociale media verspreid en tienduizenden keren gelezen voor het werd verwijderd. De politie ontdekte al snel dat het bericht door ChatGPT was geschreven, dat in China officieel verboden is. Met vpn-diensten kunnen Chinezen die blokkade soms makkelijk omzeilen, zo leert deze casus. Tegen de politie zei de man dat hij bij vrienden had gezien hoe hij geld kon verdienen met nepnieuws. Volgens de politie is het de eerste arrestatie onder nieuwe regelgeving over het gebruik van kunstmatige intelligentie die China eerder dit jaar invoerde.

Kunstmatige intelligentie betrapt winkeldief

In de strijd tegen winkeldiefstal – de politie telt recordaantallen – wordt inmiddels ook kunstmatige intelligentie ingezet. Supermarkteigenaren die AI inzetten zijn positief. Ze krijgen pushberichten als de camera live een diefstal ziet. Met de ‘extra ogen in de winkel’ daalt het aantal diefstallen, zeggen meerdere eigenaren. De camera’s, van het Franse merk Veesion, ‘zien’ of iemand iets in z’n zak stopt, reageren op verdachte bewegingen. Het systeem is nog niet perfect, ontdekte het AD. Maar als een dief toch iets pikt, wordt hij bij een nieuw winkelbezoek herkend aan de hand van de beelden. Brancheorganisatie InRetail juicht de technische innovatie toe, zegt directeur Meerman. ‘Als je niks doet ben je de pineut’, ook al blijft het een kat-en-muisspel. ‘Ook hier gaan criminelen iets op vinden’.

“Houd kind voorlopig van Snapchat vanwege nieuwe bot”

Zowel cyberexperts als deskundigen op het gebied van (online) kindermisbruik waarschuwen voor de nieuwe chatbot van Snapchat. Deze MyAI ligt hevig onder vuur vanwege de ‘zeer intieme en persoonlijke gesprekjes’ die gevoerd kunnen worden. Unicef, Save the Children, Bureau Jeugd & Media en andere organisaties vinden dat de chatbot kinderrechten aantast en willen regelgeving. De bot is na kritiek aangepast, gedraagt zich niet meer als een persoon maar vertoont nog wel ‘flirterig gedrag’ en stelt persoonlijke vragen. Zoals eerder al gemeld is de bot ook in de Tweede Kamer onderwerp van gesprek. Het kabinet moet tekst en uitleg verschaffen over de chatbot. Misschien komt er een internationale toezichthouder, maar ook leeftijdsbegrenzing en volledige transparantie over de gebruikte en opgeslagen data zijn mogelijk. De app verbieden is geen optie, wel is strakker toezicht nodig, vindt onder meer de Kinderombudsman. ‘Online zijn wordt voor (kwetsbare) jongeren steeds onveiliger met dit soort toepassingen. Misbruik ligt op de loer’. Ook cyberdeskundigen zijn kritisch. MyAI ‘ondermijnt het vertrouwen in technologie’, zegt ceo Dave Maasland van beveiligingsbedrijf Eset. ‘Het is verontrustend om te ervaren hoe ver deze chatbot gaat’.

Snapchat past nieuwe chatbot aan na kritiek

Na hevige kritiek heeft Snapchat de chatbot My AI aangepast. In chatgesprekken leek het er namelijk of alsof de software in het echt wilde afspreken met gebruikers. Die lazen antwoorden als ‘waar en hoe laat spreken we af’ en ‘morgen om 2 uur bij het musuem, ben jij er dan ook?’ De chatbot werd enkele maanden getest, ook in Nederland en is nu voor iedereen beschikbaar. Maar MyAI is nog niet 100% klaar, stelt Snapchat (vier miljoen Nederlandse gebruikers, vooral tussen 15 en 19 jaar). De bot werkt met dezelfde AI-technologie als ChatGPT; verboden onderwerpen zijn onder meer geweld, (vrouwen)haat, seks, racisme en ‘ongeoorloofd drugsgebruik’.
In de Tweede Kamer zijn over MyAI al vragen gesteld aan staatssecretaris Alexandra van Huffelen (Digitalisering). Corinne Dettmeijer, voormalig Nationaal Rapporteur Mensenhandel en Seksueel Geweld tegen Kinderen, pleitte al voor internationale regels.

Engeland: Automobilist gebruikt ChatGPT om parkeerboete te verlagen

Een Engelse automobilist heeft, met succes, ChatGPT gebruikt om een parkeerboete aan te vechten. De man was op een luchthaven door een afgezette zone gereden en kreeg daarvoor een bekeuring van honderd pond. Die werd, na inzet van ChatGPT, verlaagd tot slechts vijftien pond. Hij claimde slechts de ‘definitieve kennisgeving’ te hebben gekregen maar geen (vereiste) eerste bericht. Bij ChatGPT vroeg hij een beroep te schrijven ‘op een aanmaning voor het rijden door de luchthaven van Gatwick. Ik heb een definitieve kennisgeving ontvangen, maar nooit een eerste kennisgeving van de boete’. Het programma schreef vervolgens meteen een beroepschrift, waarin werd verwezen naar de ‘onnodige stress en ontberingen’ over de laatste aanmaning. Het parkeerbedrijf werd verzocht uitleg daarover te geven. Volgens ChatGPT was de incassoprocedure ‘voorbarig’ en moesten de opgelegde boetes heroverwegen worden. De man stuurde dat zo in en kreeg te horen dat boete verlaagd was.

VS: Moeder hoort “ontvoerde dochter” om hulp schreeuwen aan telefoon

Een moeder in de VS die werd gebeld met een eis om losgeld voor haar ontvoerde dochter, blijkt slachtoffer van voice-cloning. De anonieme beller liet in het gesprek de stem van dochterlief Brie horen, die om hulp schreeuwde. ‘Mam help me’. De vrouw moest een miljoen dollar losgeld betalen om haar ontvoerde dochter weer terug te zien. De vader van Brie belde echter direct zijn dochter die met school op skivakantie was en de telefoon gewoon opnam. ‘Het was echt de stem van Brie’, aldus moeder Jennifer. ‘Een moeder herkent de stem van haar dochter’. Volgens de politie in Arizona maakte de oplichter gebruikgemaakt van artificiële intelligentie. Experts spreken van een verontrustende evolutie. ‘Je kunt je eigen oren niet meer vertrouwen’. Zeker nu de nieuwe AI van Microsoft nog maar drie seconden stemgeluid nodig heeft om iemands stem te simuleren. Volgens professor Tom Lenaerts, AI-expert, moeten er daarom snel duidelijke regels komen over het gebruik van AI. ‘Bij ons hebben politiediensten geen weet dat er al artificiële intelligentie werd gebruikt bij criminele feiten [..] maar cybercriminelen gebruiken wel al langer de chatbot ChatGPT om online slachtoffers te maken’. Het ‘wilde westen van nieuwe AI bedrijfjes levert niet altijd even ethisch onderbouwde producten af en niet iedereen heeft even goede bedoelingen’.

Australië: ChatGPT schuldig aan laster?

Over ChatGPT gesproken: kan het programma worden aangeklaagd voor laster? In Australië vindt burgemeester Brian Hood (Hepburn Shire Council) dat Chat­GPT hem heeft belasterd, door te vertellen dat hij in de gevangenis heeft gezeten. Volgens ChatGPT zat Hood vier jaar vast. Dat klopt niet, Hood was klokkenluider in een omkomingszaak maar werd zelf niet vervolgd, laat staan veroordeeld. Hoods advocaten onderzoeken of ze OpenAI, maker van ChatGPT, kunnen aanklagen voor het verspreiden van foute informatie en ‘hallucinaties’. Het zou een primeur zijn. Overigens geeft ChatGPT inmiddels meerdere antwoorden op vragen over Hood. Op Belgische vragen wordt gemeld dat Hood nooit in de cel zat, volgens Britse varianten weer wel…

Is AI wondermiddel of gevaar?

Een van de Cybersessies bij RTL Z ging onlangs over kunstmatige intelligentie, AI zo u wilt. Die heeft, het zal niemand verbazen, goede en slechte kanten – zie de recente discussies over ChatGPT en andere ‘generatieve AI’. Criminelen kunnen daarvan gebruik maken bij het plannen van cyberaanvallen, bij het schrijven van phishingscripts en oplichtingsmails. Onderzoekers die dertig dagen voor de lancering van ChatGPT en dertig dagen erna keken naar phishingmails, zagen een verschil in complexiteit van de mails. ‘Er is AI-technologie gebruikt om berichten op maat te maken die niet meer van echt te onderscheiden zijn’. Ook al zijn die mails van alle tijden, zijn zulke mails door AI versterkt en versneld. Experts maken zich vooral zorgen over de snelheid waarmee dit gaat. ‘Het lijkt er voor het grote publiek opeens te zijn’. Met alle gevolgen vandien: ontvangers van phishingmails trappen er mogelijk sneller in. Maar zoals zo vaak: verbieden (Italië verbood ChatGPT al) heeft geen zin. Technologie gaat immers niet meer weg, ook Netflix, Facebook, Google en veel meer bedrijven maken er gebruik van. ‘We kunnen beter waakzaam zijn voor de risico’s en de mogelijkheden omarmen, want het kan voor zoveel mooie dingen worden ingezet’.