La inteligencia artificial ya no solo entrega respuestas. Ahora también puede actuar cuando detecta señales de riesgo.
En esa línea, Google anunció una actualización clave en Gemini, su sistema de IA, con foco en salud mental.
El cambio no es menor. La plataforma ahora identifica posibles crisis, como ideación suicida o autolesiones, y activa herramientas para conectar de inmediato con ayuda humana.
Este giro responde a una realidad cada vez más evidente. Millones de personas usan chatbots para hablar de ansiedad, depresión o angustia.
Por lo tanto, la frontera entre búsqueda de información y contención emocional se vuelve difusa. Google decide intervenir justo ahí.
Cuando la conversación se vuelve crítica
La actualización introduce una interfaz de “un toque” que aparece cuando la IA detecta riesgo. En lugar de limitarse a sugerencias generales, ofrece acceso directo a líneas de ayuda. Llamar, chatear o enviar mensajes en tiempo real.
Además, mantiene visible la opción de contacto profesional durante toda la interacción.
Al mismo tiempo, la compañía rediseñó la forma en que responde la IA. Evita validar conductas dañinas, pero sí reconoce el malestar del usuario y lo orienta a buscar apoyo. Es decir, la IA deja de ser neutral y asume un rol activo, aunque controlado.
Sin embargo, este avance no está exento de debate. En los últimos meses, el uso de chatbots en contextos emocionales complejos ha generado cuestionamientos sobre responsabilidad, límites éticos y posibles efectos en personas vulnerables.
En ese escenario, Google intenta marcar distancia. Insiste en que su IA no reemplaza terapia ni atención clínica.
Inversión y presión: la otra cara de la estrategia
El anuncio también incluye una señal concreta. Una inversión de 30 millones de dólares, a través de Google.org, para fortalecer líneas de ayuda en crisis a nivel global.
La medida busca aumentar la capacidad de respuesta humana, entendiendo que la tecnología, por sí sola, no basta.
Además, la empresa amplía su colaboración con organizaciones como ReflexAI, que utilizan simulaciones impulsadas por IA para entrenar a operadores y voluntarios en conversaciones críticas.
La lógica es clara. Si más personas llegan a pedir ayuda, el sistema debe estar preparado para responder.
El fondo del problema: una tendencia que no deja de crecer
El interés por la relación entre IA y salud mental va en aumento. No solo en términos tecnológicos, sino también sociales. La sobreexposición digital, el estrés post pandemia y la falta de acceso oportuno a atención psicológica empujan a muchos usuarios hacia soluciones digitales.
En ese contexto, las grandes plataformas enfrentan una presión inédita. Innovar sin descuidar el impacto humano. Google da un paso en esa dirección, aunque el desafío sigue abierto.
Porque la pregunta de fondo permanece. ¿Puede una inteligencia artificial acompañar en momentos críticos sin cruzar líneas sensibles?
Por ahora, la apuesta es híbrida. IA para detectar. Humanos para contener.
Sigue a Concierto.cl en Google Discover
Recibe nuestros contenidos directamente en tu feed.
Seguir en Google