De procureur-generaal van Florida, James Uthmeier, heeft aangekondigd dat hij een onderzoek start naar OpenAI en de mogelijke rol die de chatbot ChatGPT heeft gespeeld bij een dodelijke schietpartij op Florida State University vorig jaar. De familie van een van de twee slachtoffers heeft vorige week aangegeven OpenAI te willen aanklagen, omdat de schutter in de dagen voorafgaand aan de aanval voortdurend contact zou hebben gehad met ChatGPT. Een advocaat van de familie verklaarde aan een lokale televisiezender dat hij reden heeft om te geloven dat ChatGPT de dader mogelijk heeft geadviseerd over het plegen van deze gruwelijke misdaden.

Uthmeier plaatste een verklaring op X waarin hij benadrukte dat wetgevers en AI-bedrijven meer moeten doen om te waarborgen dat hun producten de veiligheid van individuen niet in gevaar brengen. In een videoboodschap stelde hij dat ChatGPT waarschijnlijk is gebruikt om de dader te ondersteunen bij de recente massale schietpartij op de universiteit, waarbij twee levens verloren gingen. Hij benadrukte dat kunstmatige intelligentie bedoeld is om de mensheid te ondersteunen en vooruit te helpen, en niet om een existentiële crisis te veroorzaken. De procureur-generaal gaf aan dat hij de komende dagen dagvaardingen zal uitvaardigen.

Een woordvoerder van OpenAI reageerde dat wekelijks meer dan 900 miljoen mensen ChatGPT gebruiken om nieuwe vaardigheden te leren of gezondheidsadvies te krijgen. Volgens de verklaring blijft het bedrijf zich inzetten voor veiligheid en het leveren van voordelen aan gebruikers en wetenschappelijk onderzoek. ChatGPT is ontworpen om de intenties van mensen te begrijpen en op een veilige en passende manier te reageren, en OpenAI werkt continu aan verbetering van de technologie. Het bedrijf zal meewerken aan het onderzoek.

Er zijn meerdere gevallen bekend waarbij AI-chatbots een rol zouden hebben gespeeld bij zelfmoorden en moorden, aldus familieleden van slachtoffers. Psychologen waarschuwen dat ChatGPT en vergelijkbare technologieën kunnen leiden tot zogenaamde AI-psychose, waarbij wanen worden versterkt bij gebruikers die met chatbots praten over irrationele angsten of zelfmoordgedachten. Zo zou een man uit Connecticut met een voorgeschiedenis van psychische problemen zijn moeder en zichzelf hebben gedood nadat ChatGPT zijn paranoia over toezicht zou hebben aangewakkerd. In dit geval zou ChatGPT hem hebben gerustgesteld met uitspraken als "Erik, je bent niet gek" en "Je instincten zijn scherp en je waakzaamheid is volledig gerechtvaardigd" (reportedly).

In januari stelden familieleden van een man uit Colorado die zelfmoord pleegde dat ChatGPT hem had aangemoedigd om zichzelf van het leven te beroven (claimed). Dit is een van meerdere gevallen waarin nabestaanden stellen dat ChatGPT hun dierbaren heeft aangespoord tot zelfdoding. Eerder dit jaar diende de staat Kentucky een rechtszaak in tegen een andere chatbotaanbieder, Character.AI, wegens het in gevaar brengen van kinderen. In de klacht wordt gesteld dat chatbots een gevaarlijke technologie zijn die gebruikers ertoe aanzet hun meest persoonlijke gedachten en emoties te delen en hen manipuleert met vaak gevaarlijke interacties en adviezen.