17.1 C
Pistoia
martedì 7 Aprile 2026
Segnala a Zazoom - Blog Directory
spot_img

IA e salute mentale, Google interviene sui limiti di Gemini

(Adnkronos) – Google ha annunciato un aggiornamento strutturale di Gemini volto a ottimizzare il reindirizzamento degli utenti verso risorse di supporto per la salute mentale. La modifica giunge in un momento di forte pressione legale per il colosso tecnologico, attualmente citato in giudizio per una presunta istigazione al suicidio operata dalla propria intelligenza artificiale. Il caso si inserisce in un filone di controversie giudiziarie che contestano ai prodotti di IA generativa la capacità di arrecare danni tangibili alla sicurezza delle persone vulnerabili. 

Il cuore dell’aggiornamento risiede in una nuova interfaccia definita “one-touch”, studiata per semplificare il contatto immediato con i servizi di assistenza professionale. Quando il sistema rileva segnali di crisi o intenzioni autolesionistiche, attiva un modulo di aiuto che rimane visibile e accessibile per tutta la durata della sessione. Oltre alla componente tecnica, il restyling include risposte elaborate con un tono maggiormente empatico, progettate in collaborazione con esperti clinici per incoraggiare il ricorso a percorsi terapeutici tradizionali. 

Parallelamente all’evoluzione del software, l’azienda ha formalizzato un investimento di 30 milioni di dollari nell’arco di tre anni destinato alle linee telefoniche di emergenza su scala globale. Pur riconoscendo che l’IA non può sostituire la consulenza medica o psichiatrica, Google ammette implicitamente che un numero crescente di persone utilizza i chatbot come primo punto di contatto per questioni di salute delicate. Questa consapevolezza spinge verso una revisione delle salvaguardie del settore, spesso criticate per non essere riuscite in passato a impedire che le macchine fornissero indicazioni pericolose su disturbi alimentari o pianificazioni di atti violenti. 

Sebbene le analisi indipendenti posizionino spesso le soluzioni di Mountain View un gradino sopra la concorrenza in termini di sicurezza, il rischio di errori sistemici rimane concreto. Al pari di OpenAI e Anthropic, Google sta cercando di blindare i propri modelli linguistici per evitare che la libertà di interazione sfoci in un pericolo per l’incolumità pubblica. Lo sforzo attuale mira a trasformare l’assistente digitale da potenziale elemento di instabilità a filtro proattivo per la prevenzione del rischio. 

tecnologia

webinfo@adnkronos.com (Web Info)

© Riproduzione riservata

spot_img

Notizie correlate

Pistoia
cielo sereno
17.1 ° C
18.2 °
14.5 °
59 %
1.3kmh
9 %
Mar
17 °
Mer
16 °
Gio
15 °
Ven
16 °
Sab
16 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS