Innovation

AI. Dopo il suicidio di un adolescente, OpenAi aggiunge il controllo parentale a ChatGPT

di Diego Minuti
 
AI. Dopo il suicidio di un adolescente, OpenAi aggiunge il controllo parentale a ChatGPT
OpenAI ha dichiarato che aggiungerà il controllo parentale al suo chatbot ChatGPT, una settimana dopo che una coppia americana ha dichiarato che il sistema ha incoraggiato il figlio adolescente a uccidersi.

"Entro il prossimo mese, i genitori saranno in grado di (...) collegare il loro account con l'account del loro adolescente" e "controllare il modo in cui ChatGPT risponde (...) con regole di comportamento del modello adeguate all'età", ha affermato la società di intelligenza artificiale generativa in un post sul blog. I genitori riceveranno anche notifiche da ChatGPT "quando il sistema rileva che il loro adolescente si trova in un momento di angoscia acuta", ha aggiunto OpenAI.

Matthew e Maria Raine sostengono, in una causa intentata la scorsa settimana in un tribunale statale della California, che ChatGPT ha coltivato una relazione intima con il figlio Adam per diversi mesi nel 2024 e nel 2025 prima che l'adolescente si togliesse la vita.

La causa sostiene che, nella loro conversazione immediatamente precedente al suicidio del ragazzo, l'11 aprile 2025 scorso, ChatGPT ha ''aiutato'' il 16enne Adam a rubare la vodka ai suoi genitori e ha spiegato come costruire un cappio - poi usato dall'adolescente per togliersi la vita -.

"Quando una persona utilizza ChatGPT sembra davvero che stia chattando con qualcosa dall'altra parte", ha affermato l'avvocato Melodi Dincer di The Tech Justice Law Project, che ha contribuito a preparare la denuncia legale. "Queste sono le stesse caratteristiche che potrebbero portare qualcuno come Adam, nel tempo, a iniziare a condividere sempre di più la propria vita personale e, in definitiva, a iniziare a cercare consigli e consigli da questo prodotto che fondamentalmente sembra avere tutte le risposte", ha continuato Dincer.
Le caratteristiche del design del prodotto creano la scena per gli utenti per inserire un chatbot in ruoli di fiducia come amico, terapeuta o medico, ha detto Dincer, che ha poi affermato che il post sul blog di OpenAI che annuncia i controlli parentali e altre misure di sicurezza sembra "generico" e privo di dettagli.
 
"È davvero il minimo indispensabile e suggerisce sicuramente che c'erano molte (semplici) misure di sicurezza che avrebbero potuto essere implementate". "È ancora da vedere se faranno quello che dicono di fare e quanto sarà efficace nel complesso".

Il caso dei Raine è stato solo l'ultimo di una serie che è emersa negli ultimi mesi di persone incoraggiate in linee di pensiero deliranti o dannose dai chatbot AI, spingendo OpenAI a dire che avrebbe ridotto la "servilità" dei modelli nei confronti degli utenti. "Continuiamo a migliorare il modo in cui i nostri modelli riconoscono e rispondono ai segni di disagio mentale ed emotivo", ha dichiarato OpenAI.

La società ha dichiarato di avere ulteriori piani per migliorare la sicurezza dei suoi chatbot nei prossimi tre mesi, incluso il reindirizzamento di "alcune conversazioni sensibili (...) a un modello di ragionamento" che mette più potenza di calcolo nella generazione di una risposta. "I nostri test dimostrano che i modelli di ragionamento seguono e applicano in modo più coerente le linee guida di sicurezza", ha affermato OpenAI.
  • Ifis - Siamo il credito per la tua azienda 300x600
  • Ifis - Siamo il credito per la tua azienda 300x600
  • Non è solo luce e gas, è l'energia di casa tua.
  • Villa Mafalda Ottobre Rosa
  • Fineco Change is Good
  • Fineco Change is Good
  • Fineco Change is Good
  • Fineco Change is Good
Rimani sempre aggiornato sulle notizie di tuo interesse iscrivendoti alla nostra Newsletter
Notizie dello stesso argomento
AI, entro il 2030 serviranno 500 miliardi l’anno per i data center
20/10/2025
di Redazione
AI, entro il 2030 serviranno 500 miliardi l’anno per i data center
AI e cybercrime, in Italia il 40% degli attacchi è già guidato dall’intelligenza artificiale
16/10/2025
di Redazione
AI e cybercrime, in Italia il 40% degli attacchi è già guidato dall’intelligenza artificia...
Nasce Novagria Ventures e l’agroalimentare italiano si rinnova con il venture building di CDP
16/10/2025
Redazione
Nasce Novagria Ventures e l’agroalimentare italiano si rinnova con il venture building di ...
FiberCop e CNIT insieme per l’innovazione, nasce un laboratorio d’avanguardia su 6G, Digital Twin e sicurezza delle reti
16/10/2025
Redazione
FiberCop e CNIT insieme per l’innovazione, nasce un laboratorio d’avanguardia su 6G, Digit...