La semana pasada se reveló que un practicante de un periódico nacional publicó artículos generados con inteligencia artificial (IA) que contenían información falsa. El hecho, comprensiblemente, generó molestia, desconcierto y, sobre todo, una conversación ineludible. Más allá de la falta puntual, lo que queda en evidencia es una verdad incómoda: no es la tecnología la que falla, sino el uso que hacemos de ella.
A lo largo de su historia, la humanidad ha impulsado avances científicos, técnicos y culturales que transformaron profundamente sus estructuras sociales, económicas y políticas. Invenciones como la rueda, la imprenta, la electricidad o el internet marcaron cambios definitivos en el curso de las civilizaciones. Muchas de ellas, en su momento, fueron recibidas con recelo, como si el progreso trajera consigo una amenaza inevitable. Sin embargo, en retrospectiva, resulta evidente que ninguna de estas herramientas es intrínsecamente benéfica o nociva. Su impacto depende del propósito con el que se emplean. La pólvora, inicialmente utilizada en contextos ceremoniales, fue rápidamente convertida en arma de guerra. La energía nuclear representa hasta hoy un dilema moral de alcance global: puede abastecer ciudades con bajas emisiones o ser utilizada para aniquilar poblaciones enteras. En todos los casos, la tecnología refleja no solo el conocimiento de su época, sino también sus decisiones éticas y tensiones políticas.
Hoy, la IA, como los grandes hitos tecnológicos que la precedieron, carece de voluntad propia. Puede asistir con eficacia en diagnósticos médicos o diseminar falsedades que erosionan la credibilidad del periodismo, como el caso que motiva esta columna. El problema no es que alguien recurra a la IA, sino cómo y para qué la utiliza: sin criterio, sin verificación, sin responsabilidad. La IA no miente por decisión propia; somos nosotros quienes decidimos mentir a través de ella.
Frente a esta realidad, distintos países han comenzado a regular el uso de la inteligencia artificial. En Estados Unidos, una Orden Ejecutiva de 2023 estableció estándares para proteger los derechos civiles, garantizar la seguridad y fomentar la transparencia en su implementación. China, desde ese mismo año, exige que todo contenido generado por IA esté claramente identificado. En 2024, la Unión Europea adoptó la Ley de Inteligencia Artificial, que clasifica los sistemas según su nivel de riesgo y prohíbe aplicaciones inaceptables, como el reconocimiento facial masivo.
¿Y Colombia? En 2022 se presentó la Política Nacional de Inteligencia Artificial, que propone principios orientadores para su aplicación. Sin embargo, a la fecha, esta iniciativa no se ha traducido en legislación. El país continúa sin disposiciones específicas que regulen su implementación en ámbitos estratégicos como la publicidad, la política y los medios de comunicación.
La ausencia de una normativa concreta revela más que un rezago legislativo. El uso de la IA, en los sectores mencionados, comienza a actuar como un espejo que expone nuestras carencias institucionales, éticas y culturales. Ya no se trata únicamente de establecer controles sobre los algoritmos; también debemos examinar los principios que guían nuestras decisiones colectivas. Entonces, una vez más, el desafío que enfrentamos no es técnico ni jurídico. Es, en esencia, profundamente humano.
@hmbaquero


