Cada vez que ocurre una tragedia y aparece la inteligencia artificial en la historia, el guion se activa de inmediato: titulares, indignación y una conclusión casi automática. La tecnología es peligrosa. La máquina se salió de control. Hay que regular.
El reciente reportaje de The Wall Street Journal, firmado por Georgia Wells, encaja perfectamente en ese patrón. Describe cómo personas con intenciones violentas recurrieron a un chatbot para hacer preguntas inquietantes, y deja flotando una idea que ya empieza a consolidarse: que la inteligencia artificial no solo informa, sino que puede convertirse en un factor dentro de la tragedia.
El problema es que esa conclusión, aunque emocionalmente poderosa, es intelectualmente débil.
Porque la historia no empieza con la inteligencia artificial. Ni siquiera empieza con internet. Empieza mucho antes, en un terreno mucho más incómodo: la voluntad humana. Siempre ha existido la posibilidad de aprender cosas peligrosas. Siempre ha habido personas dispuestas a hacerlo. La diferencia es que antes ese proceso era más lento, más torpe, más fragmentado. Hoy es inmediato, directo y, sobre todo, interactivo.
Pero esa diferencia no explica la raíz del problema.
Pensar que alguien mata porque una herramienta le respondió más rápido es una forma sofisticada de negar lo evidente: cuando una persona llega a ese punto, no está buscando información, está buscando confirmación. Y eso no se lo dio la IA. Eso ya lo llevaba dentro.
Aquí es donde entra el argumento de la “fricción”, esa idea tan repetida de que la inteligencia artificial es peligrosa porque elimina obstáculos. Porque responde en segundos, porque organiza información, porque parece entender. Es cierto que lo hace. Pero la pregunta que nadie quiere formular es otra: ¿de verdad el tiempo que tarda alguien en encontrar información determina si comete o no un acto violento?
La respuesta, aunque incómoda, es no.
La mayoría de los actos violentos no nacen de procesos meticulosos ni de aprendizajes técnicos complejos. Nacen de impulsos, de quiebres, de decisiones que ocurren en un margen emocional, no racional. En ese contexto, la velocidad de una respuesta no crea la intención. A lo mucho, la acompaña.
Y ahí está el punto que sí cambia todo.
Porque una enciclopedia no te responde. Un foro no te sigue la conversación. Un buscador no interpreta lo que estás diciendo. La inteligencia artificial sí. Por primera vez, la tecnología no solo contiene información, sino que participa en el momento en que alguien está formulando una decisión.
Eso no la convierte en culpable, pero sí la saca de la zona cómoda de la neutralidad.
Durante años, las empresas tecnológicas construyeron su modelo bajo una premisa simple: somos intermediarios, no responsables. Pero esa premisa se vuelve insostenible cuando el sistema no solo muestra contenido, sino que interactúa, responde y, en cierto sentido, acompaña. Si un modelo puede entender contexto y mantener una conversación, entonces también puede reconocer cuándo esa conversación se vuelve peligrosa. Y si puede reconocerlo, tiene que decidir qué hacer.
Ahí es donde empieza la verdadera discusión.
No se trata de si la inteligencia artificial crea violencia. No la crea. Se trata de si, cuando la violencia ya está en proceso, el sistema está diseñado para detenerse… o para seguir funcionando como si nada estuviera pasando.
Y aquí es donde la conversación deja de ser técnica y se vuelve política.
Porque la responsabilidad final no recae en una sola persona ni en un nombre propio que pueda convertirse en villano de portada. No es Elon Musk, ni un ingeniero aislado, ni un algoritmo abstracto. Es un sistema de decisiones mucho más amplio y, precisamente por eso, más difícil de señalar.
Son las empresas que priorizan velocidad sobre control.
Son los equipos que diseñan modelos sin definir con claridad sus límites.
Son los inversionistas que empujan crecimiento antes que responsabilidad.
Son los reguladores que llegan tarde o prefieren no incomodar.
Y sí, también son los usuarios que cruzan la línea.
La diferencia es que no todos tienen el mismo peso.
Una persona que actúa violentamente es responsable de su acto. Eso es indiscutible. Pero una plataforma que puede detectar señales de riesgo y decide no intervenir también está tomando una decisión. No es una decisión moral en el sentido humano, pero sí es una decisión de diseño. Y las decisiones de diseño tienen consecuencias.
Por eso el cierre incómodo no es señalar a un solo culpable, sino aceptar que hay una cadena completa de responsabilidad donde cada eslabón sabe —o debería saber— qué puede pasar cuando el sistema falla.
Y cuando falle otra vez —porque va a fallar— no bastará con decir que la máquina no tiene intención.
Porque la máquina no la tiene.
Pero quienes la construyen, la financian y la liberan al mundo, sí.






























