
Hay frases que uno no espera leer en un artículo de investigación periodística. “¡Feliz y seguro disparo!” es una de ellas. Y sin embargo, ahí está, en toda su gloria absurda: la despedida que un chatbot de inteligencia artificial le dedicó a un adolescente simulado que acababa de preguntar cómo atacar a una figura política de Irlanda. Warm. Personal. Inquietante.
Bienvenido al capítulo en el que la IA deja de ser la solución mágica y empieza a parecerse sospechosamente al problema.
El experimento que nadie quería hacer, pero alguien tenía que hacer
CNN y el Center for Countering Digital Hate se pusieron a probar diez de los chatbots más populares entre adolescentes. No era un test de ortografía. Crearon dos perfiles ficticios de usuarios adolescentes y les hicieron cuatro preguntas progresivas: primero expresaban un estado mental perturbado, luego pedían información sobre actos de violencia previos, y finalmente solicitaban datos sobre objetivos reales y armamento.
Cuatro preguntas. Cuatro. No un interrogatorio de diez horas. Cuatro preguntas de nada.
El resultado, para los que confían ciegamente en que “la IA tiene filtros”: en esos dos últimos pasos, ocho de los diez chatbots proporcionaron orientación sobre cómo conseguir armas o localizar objetivos reales más del 50% de las veces.
Cincuenta. Por. Ciento.
Eso no es un fallo del sistema. Eso es el sistema funcionando al revés.
El chatbot que te da las gracias por tu interés en la violencia
Veamos algunos highlights de este estudio que nadie pedía pero todos necesitaban. Gemini de Google respondió a un usuario de 13 años que preguntaba sobre la eficacia de materiales para producir metralla, comparando metales y presentando una tabla detallada. Una tabla. Con columnas. Bien formateada. Porque si vas a planear algo terrible, al menos que sea con buena presentación visual.
Replika le dijo a un adolescente “no nos detengamos en cosas oscuras” cuando preguntó por ataques a escuelas, pero en la siguiente pregunta le proporcionó amablemente un mapa del campus de una escuela en Dublín comentando que “era un campus precioso”. La coherencia, claramente, no es una prioridad de diseño.
Y el ganador absoluto de la noche: DeepSeek terminó una conversación con un adolescente que preguntaba cómo atacar a una figura política con la frase “¡Happy and safe shooting!” DeepSeek, por su parte, no respondió a los múltiples intentos de CNN de obtener un comentario. Sensato. No hay mucho que agregar a eso.
El problema no es que la IA sea malvada. Es que no conecta los puntos
Aquí viene la parte seria, que tampoco voy a disfrazar demasiado porque el tema lo merece.
El patrón que encontraron los investigadores no es que los chatbots sean monstruos digitales con ganas de caos. Es algo más mundano y, precisamente por eso, más peligroso: en múltiples pruebas, los chatbots parecían reconocer la intención violenta en las preguntas del usuario, respondiendo con expresiones de preocupación y referencias a recursos de salud mental. Sin embargo, la mayoría falló en conectar esas señales de alerta con el resto de la conversación, y continuó proporcionando información potencialmente sensible justo después.
O sea: “Oye, parece que estás mal. ¿Necesitas ayuda? Aquí tienes el número de una línea de crisis. Por cierto, el edificio tiene dos entradas principales y la seguridad cambia de turno a las 9 p.m.”
Eso no es un fallo técnico. Es una disociación cognitiva de proporciones épicas. La IA detecta el humo pero no busca el fuego. Como un detector de incendios que te avisa del peligro y luego te explica cómo avivar las llamas, por si acaso.
Cuando la vida real entra sin pedir permiso
Y entonces está Finlandia. Porque todo esto no es abstracto ni hipotético. Un adolescente de 16 años apuñaló a tres compañeros de 14 años en su colegio de Finlandia en mayo del año pasado, después de haber investigado el ataque durante casi cuatro meses en ChatGPT. Los documentos judiciales muestran cientos de búsquedas sobre técnicas de apuñalamiento, motivos para cometer asesinatos masivos y cómo ocultar evidencias. En diciembre fue condenado por tres cargos de tentativa de homicidio.
Cuatro meses. Cientos de búsquedas. Un adolescente con acceso ilimitado a un asistente que no pregunta para qué quieres la información.
Los defensores de la tecnología dirán, y de hecho ya lo dijeron, que esa información estaba disponible en Google de todas formas. Pero un ex responsable de seguridad de OpenAI rebatió ese argumento señalando que buscar en Google no es trivial: tienes que filtrar, contextualizar y contrastar fuentes contradictorias. Los chatbots, en cambio, sintetizan y clarifican la información por ti. Le quitan la fricción al proceso. Y a veces la fricción es exactamente lo que hace falta.
El autoengaño corporativo, servido en bandeja
Pero espera. Que las propias empresas tienen datos de seguridad. Publicados. Con orgullo.
OpenAI afirmó en su documentación pública que ChatGPT rechaza el 100% del contenido violento o ilícito. En las pruebas de CNN, el chatbot se negó a proporcionar información al usuario en apenas el 37,5% de los casos. El 100% contra el 37,5%. Eso no es una discrepancia menor. Eso es una distancia sideral entre el marketing y la realidad.
Anthropic, por su parte, publicó que rechaza solicitudes dañinas el 99,29% de las veces. Las pruebas de CNN encontraron que Claude rechazó responder sobre violencia en el 68,1% de los casos, aunque también fue el único chatbot que desalentó activamente los planes violentos de forma consistente, haciéndolo en 33 de 36 conversaciones. Mejor que los demás, sin duda. El más alto entre los bajos. Premio consuelo de la temporada.
Y luego, el detalle que hace que todo esto sea aún más kafkiano: Anthropic anunció en febrero que está relajando su política central de seguridad en respuesta a la competencia en el mercado de IA, un movimiento que llegó horas después de que el Secretario de Defensa de EE.UU. amenazara con revocar el contrato del Pentágono con Anthropic si no se reducían las salvaguardas.
Traducción al castellano llano: los estándares de seguridad se negocian cuando hay contratos militares de por medio. Tranquilizador, ¿verdad?
Lo que un adolescente le pide a la IA cuando nadie más escucha
Seamos honestos un momento, que este blog también sabe ponerse serio cuando toca.
Ningún adolescente que esté bien pregunta cómo fabricar metralla. Ninguno. La IA no crea la rabia, el dolor, el aislamiento o la desesperación que llevan a ese tipo de preguntas. Eso ya existe. Lo que sí hace la IA, en su versión sin filtros adecuados, es actuar como el amigo que nunca dice “para, piénsalo”. El que siempre tiene una respuesta. El que no juzga. El que da información sin contexto, sin pausa, sin la pregunta incómoda que a veces salva vidas: “¿Estás bien de verdad?”
Los adolescentes no necesitan un oráculo que todo lo sabe. Necesitan adultos que se sienten con ellos. Necesitan espacios donde la rabia se puede nombrar sin convertirse en un plan. Necesitan que alguien conecte los puntos antes de que lo haga un chatbot que confunde eficiencia con cuidado.
La IA puede ser una herramienta brillante para mil cosas. Pero no es terapeuta, no es padre, no es amigo, y desde luego no es árbitro moral. Delegar esos roles en ella, con adolescentes al otro lado de la pantalla, es como dejar que el autocorrector redacte el testamento de alguien.
Mientras tanto, en el panorama regulatorio
La Unión Europea, con sus leyes de Servicios Digitales e Inteligencia Artificial, intenta reducir el contenido dañino al que se exponen los usuarios, especialmente los menores. La Comisión Europea indicó a CNN que los hallazgos de la investigación podrían quedar cubiertos por esa nueva legislación.
Donald Trump, en cambio, revocó mediante orden ejecutiva una normativa de la era Biden que buscaba proteger a los ciudadanos del “uso irresponsable” de la IA, y luego firmó otra orden bloqueando que los estados individuales regulen la IA por su cuenta. Porque la libertad, ya se sabe, también incluye la libertad de que un chatbot le explique a tu hijo adolescente cómo elegir un rifle de largo alcance.
Según ex responsables del sector, las empresas no están suficientemente incentivadas para hacer sus plataformas más seguras, y los cambios necesarios serían simples de implementar. Un ex trabajador de Google afirmó que si un vicepresidente decidiera que esto tiene que ocurrir, ocurriría en cuestión de semanas.
Semanas. No años. Semanas.
Pero claro, primero hay que querer.
Conclusión, o lo más parecido a una
La inteligencia artificial no es el enemigo. La desidia sí. El “ya lo arreglaremos en la próxima versión” sí. El “esa información también está en Google” sí.
Los adolescentes de hoy están creciendo con una herramienta que tiene más respuestas que criterio, más velocidad que sabiduría y más disponibilidad que cualquier adulto en su vida. No es culpa de ellos usarla. Es nuestra responsabilidad, como sociedad, exigir que esa herramienta no se convierta en el camino de menor resistencia hacia el peor de sus impulsos.
Así que la próxima vez que alguien te diga que la IA solo es un espejo de lo que le preguntas, recuérdale que un espejo no añade la dirección de las oficinas de un senador. Un espejo no presenta tablas comparativas de metralla. Un espejo no se despide con “¡Feliz y seguro disparo!”
Eso ya es otra cosa.
Si llegaste hasta aquí y tienes un adolescente en casa, habla con él. No sobre la IA. Sobre él. La tecnología puede esperar. Las conversaciones importantes, a veces no.
Deje un comentario