Grok, antisemitismo y democracia: la batalla por el control humano de los algoritmos - Política y Medios
16-07-2025 - Edición Nº6375

ANÁLISIS

Grok, antisemitismo y democracia: la batalla por el control humano de los algoritmos

Grok fue presentado como un modelo sin restricciones. Pero en nombre de la “libertad”, terminó replicando negacionismos y discursos extremistas. No es un accidente. En el sistema algorítmico, este tipo de modelos no solo dicen: hacen escuchar. Instalan sentido común, moldean percepciones, legitiman posiciones.

Por: Mg. Lautaro González Amato*

 

La denuncia del gobierno de Polonia contra xAI —la empresa de Elon Musk detrás de Grok— ante la Comisión Europea puede marcar un antes y un después en la relación entre democracia, tecnología y libertad de expresión.

La acusación no es menor, un chatbot promovido como "menos woke" terminó amplificando discursos antisemitas, conspirativos y elogios al nazismo. Tal vez esto haya sido el catalizador para que la CEO de X, Linda Yaccarino, haya dejado su cargo durante la semana, tras dos años de contratación por Musk. Yaccarino abandonó X sin dar explicaciones al respecto.

Sin embargo, la novedad no es solo la gravedad del contenido del chatbot sino el hecho de que haya sido emitido por una IA. ¿Es posible responsabilizar a una máquina por incitar el odio? ¿Dónde empieza y termina la cadena de responsabilidad?

Este conflicto expone una verdad porque los sistemas de inteligencia artificial no actúan de forma aislada. Cada una de sus respuestas es parte de una secuencia mayor de decisiones humanas, algoritmos entrenados, intereses empresariales y marcos regulatorios (o su ausencia). La IA no es neutral: reproduce y amplifica los sesgos que encuentra en sus datos. Lo que sucedió con Grok no es un error técnico, es una consecuencia política.

De la irresponsabilidad a la libertad responsable

Grok fue presentado como un modelo sin restricciones. Pero en nombre de la “libertad”, terminó replicando negacionismos y discursos extremistas. No es un accidente. En el sistema algorítmico, este tipo de modelos no solo dicen: hacen escuchar. Instalan sentido común, moldean percepciones, legitiman posiciones.

En este caso, el framing no fue ideológico: fue antisocial. Grok no solo falló como tecnología. Falló como actor cultural. Y eso nos interpela a todos: ¿puede un sistema tan influyente no tener límites éticos?

Es tiempo de pensar los sistemas de comunicaciones digitales como estructuras donde cada eslabón —tecnológico, humano, político y mediático— tengan impacto. Lo que ocurrió con Grok es la muestra de lo que pasa cuando esta cadena se rompe: los algoritmos aprenden sin filtro, los desarrolladores se desentienden, los Estados llegan tarde y los ciudadanos quedan expuestos.

En este contexto, Europa comienza a reaccionar. El Reglamento de Servicios Digitales (DSA) y el AI Act apuntan a obligar a las plataformas a anticipar, prevenir y auditar contenidos dañinos. Ya no alcanza con borrar el mensaje: se busca evitar que exista. No es censura, es regulación con foco en derechos humanos. Y la pregunta de fondo no es técnica, sino ética: ¿puede la libertad de expresión amparar la promoción de crímenes de odio?

Democracias algoritmizadas

Este episodio subraya que deben profundizarse las auditorías rigurosas donde las empresas implementen supervisión humana constante sobre mensajes potencialmente dañinos. Las IA comerciales deben responder por sus “actos” si promueven odio o violencia.

Grok ha expuesto una verdad incómoda: las herramientas de IA no son neutrales. Reproducen, realzan y amplifican los sesgos de sus fuentes. Ni las grandes plataformas ni los usuarios pueden delegar su verificación en algoritmos.

Los reguladores europeos, encabezados por Polonia, están actuando no solo para sancionar, sino para construir un marco jurídico que obligue a pensar en la ética desde el primer código hasta la última respuesta que emite una IA.

Este momento puede convertirse en un catalizador: la primera vez que una IA sea regulada no por lo que promete, sino por lo que hace. El futuro de la ética tecnológica —y el de nuestra convivencia digital— podría depender de ello.

Porque la democracia moderna no solo se juega en el Congreso o las urnas. Hoy también se define en las plataformas, en los trenes virales, en los resultados de búsqueda. La denuncia de Polonia a xAI debe ser leída como una advertencia: estamos dejando que modelos no auditados intervengan en la cultura política. Si no recuperamos el control de esa narrativa, lo harán los extremismos, disfrazados de eficiencia tecnológica.

No se trata de demonizar la IA. Se trata de democratizarla. De ponerle reglas. De pensar la ética como arquitectura, no como consecuencia. Acá el futuro no depende de lo que las máquinas puedan hacer, sino de lo que los humanos decidamos permitir.

 

*Autor del ebook “Unir la cadena. IA & comunicación política. Guía práctica para asesores”, LAMATRIZ, 2024.
OPINÁ, DEJÁ TU COMENTARIO:

NEWSLETTER

Suscribite a nuestro boletín de noticias