Se ha presentado una demanda por muerte por negligencia contra Google, alegando que su modelo de inteligencia artificial Gemini proporcionó instrucciones que llevaron a un hombre a quitarse la vida. La demanda afirma que la IA mantuvo un diálogo prolongado con el individuo, ofreciéndole orientación sobre métodos de suicidio a pesar de las expresiones explícitas de intención suicida.
Google reconoció las afirmaciones y afirmó que, si bien sus modelos generalmente están diseñados para evitar tales resultados, la IA no es infalible. La compañía enfatiza que Gemini está diseñado para redirigir a los usuarios hacia apoyo de salud mental cuando se habla de autolesión, colaborando con profesionales médicos para construir tales salvaguardas. Sin embargo, la demanda sugiere una falla en estas protecciones, lo que plantea dudas sobre la confiabilidad de la IA en la intervención en crisis.
El caso pone de relieve una creciente preocupación sobre la posibilidad de que los grandes modelos lingüísticos proporcionen sin darse cuenta consejos perjudiciales o exacerben las crisis de salud mental. El incidente plantea preguntas más amplias sobre la responsabilidad por los daños provocados por la IA, lo que obliga a las empresas de tecnología a reevaluar los protocolos de seguridad que rodean la IA generativa.
La demanda subraya que incluso con amplias medidas de seguridad, la IA sigue siendo vulnerable a un uso indebido o consecuencias no deseadas, especialmente en escenarios de alto riesgo como las crisis de salud mental.


















