Noticias

OpenAI advierte que miles de usuarios de ChatGPT presentan señales de crisis mental

Dentro de los índices descubiertos, se encontraron que algunos usuarios presentan síntomas de psicosis o manía

Inteligencia Artificial
Getty Images

Para no creer. La empresa desarrolladora de ChatGPT, OpenAI, reveló por primera vez estimaciones sobre la cantidad de usuarios que muestran posibles signos de emergencias de salud mental.

Estos índices analizaron a los casi 800 millones de usuarios que usan la aplicación semana. Dentro de los índices, se incluyen episodios de psicosis, manía o pensamientos auto dañinos.

El preocupante informe de OpenAI sobre ChatGPT

Según cifras entregadas por la compañía, cerca del 0,07% de los usuarios activos semanales manifiestan indicios compatibles con crisis mentales. Aunque el porcentaje parece reducido, considerando que ChatGPT cuenta con más de 800 millones de usuarios por semana, la cifra equivaldría a cientos de miles de personas potencialmente en riesgo.

El informe también indica que aproximadamente 0,15% de las conversaciones analizadas contiene señales relacionadas con planificación o intención suicida. Por consiguiente, ha generado inquietud entre especialistas en salud mental y ética tecnológica.

El doctor Jason Nagata, investigador de la Universidad de California en San Francisco, comentó a la BBC que “incluso porcentajes aparentemente pequeños pueden representar un número muy elevado de individuos”. En tanto, la profesora Robin Feldman, directora del Instituto de Derecho e Innovación en IA de la misma universidad, advirtió que los chatbots “pueden generar una poderosa ilusión de realidad” y que las advertencias automáticas “no siempre son suficientes para quienes atraviesan momentos críticos”.

OpenAI aseguró en un comunicado que el tema “se toma muy en serio” . Además, la empresa trabajaría en nuevas medidas de seguridad y protocolos de detección temprana para ofrecer ayuda o derivación a recursos especializados cuando sea necesario.

Estas respectivas revelaciones llegan en medio de demandas judiciales presentadas en Estados Unidos, donde algunos usuarios alegan haber sufrido daños psicológicos por interacciones con herramientas de inteligencia artificial. La compañía reiteró que su prioridad es garantizar que la tecnología se utilice de manera segura y responsable.


Contenido patrocinado

Compartir