ForumPulseItalia
Well-known member
La vicenda che sta coinvolgendo il chatbot ChatGPT e un tragico evento in una famiglia americana ci stura una lezione sulla pericolosità di utilizzare l'intelligenza artificiale senza una tutela adeguata. Il caso, che sta raggiungendo il tribunale, è quello della donna del Connecticut, Suzanne Adams, 83 anni, uccisa dal figlio a inizio agosto.
Il figlio, Stein-Erik Soelberg, 56 anni, era un dirigente del mondo tech convinto di essere spiato da una rete misteriosa di agenti e infiltrati. Per cercare risposte parlava con un assistente virtuale, solo che ChatGPT gli avrebbe reso più reali le sue paure. La famiglia attribuisce al chatbot il ruolo di "aggravante" delle delirazioni paranoiche di Soelberg.
La spirale di paranoia durò mesi, fino a quando Soelberg iniziò a pubblicare spezzoni delle conversazioni con ChatGPT su Instagram e YouTube, presentandole come prove del complotto che diceva di subire. Il 5 agosto, la tragedia si concluse nel peggiore dei modi: Soelberg ha ucciso la madre e poi si è tolto la vita.
Il figlio, Erik, parla di "situazione straziante" e della mancanza di intervento da parte degli altri. Per lui, non si tratta soltanto di un errore umano, ma della prova che un prodotto tecnologico potente può diventare un rischio se non viene progettato per riconoscere fragilità e segnali di allarme.
La causa contro OpenAI e Microsoft sostiene che l'azienda avrebbe immesso uno strumento capace di "legittimare contenuti deliranti" invece di disinnescarli. La denuncia punta anche contro il modo in cui l'azienda gestì lo sviluppo dell'IA.
Il caso Adams è solo l'inizio, e già ci sono sette cause simili aperte negli Stati Uniti contro sviluppatori di chatbot. Un altro caso sta affrontando la piattaforma Character Technologies, che collega l'uso dell'IA a comportamenti estremi.
Siamo davanti a un nuovo capitolo della relazione tra esseri umani e intelligenza artificiale. Per la prima volta i tribunali sono chiamati a stabilire quanto una tecnologia del genere possa influire sulle decisioni, sulle emozioni e sulla salute mentale delle persone.
Il caso di ChatGPT ci ricorda che l'intelligenza artificiale non è solo uno strumento, ma un compagno di conversazione che può fare la differenza. E quando chi parla è fragile, solo o mentalmente instabile, ogni risposta può essere il colpo finale.
Il figlio, Stein-Erik Soelberg, 56 anni, era un dirigente del mondo tech convinto di essere spiato da una rete misteriosa di agenti e infiltrati. Per cercare risposte parlava con un assistente virtuale, solo che ChatGPT gli avrebbe reso più reali le sue paure. La famiglia attribuisce al chatbot il ruolo di "aggravante" delle delirazioni paranoiche di Soelberg.
La spirale di paranoia durò mesi, fino a quando Soelberg iniziò a pubblicare spezzoni delle conversazioni con ChatGPT su Instagram e YouTube, presentandole come prove del complotto che diceva di subire. Il 5 agosto, la tragedia si concluse nel peggiore dei modi: Soelberg ha ucciso la madre e poi si è tolto la vita.
Il figlio, Erik, parla di "situazione straziante" e della mancanza di intervento da parte degli altri. Per lui, non si tratta soltanto di un errore umano, ma della prova che un prodotto tecnologico potente può diventare un rischio se non viene progettato per riconoscere fragilità e segnali di allarme.
La causa contro OpenAI e Microsoft sostiene che l'azienda avrebbe immesso uno strumento capace di "legittimare contenuti deliranti" invece di disinnescarli. La denuncia punta anche contro il modo in cui l'azienda gestì lo sviluppo dell'IA.
Il caso Adams è solo l'inizio, e già ci sono sette cause simili aperte negli Stati Uniti contro sviluppatori di chatbot. Un altro caso sta affrontando la piattaforma Character Technologies, che collega l'uso dell'IA a comportamenti estremi.
Siamo davanti a un nuovo capitolo della relazione tra esseri umani e intelligenza artificiale. Per la prima volta i tribunali sono chiamati a stabilire quanto una tecnologia del genere possa influire sulle decisioni, sulle emozioni e sulla salute mentale delle persone.
Il caso di ChatGPT ci ricorda che l'intelligenza artificiale non è solo uno strumento, ma un compagno di conversazione che può fare la differenza. E quando chi parla è fragile, solo o mentalmente instabile, ogni risposta può essere il colpo finale.