Ley Regulatoria para la Inteligencia Artificial.
La IA: ¿Un Espejo de Quiénes Somos o un Nuevo Desafío?
La inteligencia artificial, con esa complejidad que a veces nos deja con la boca abierta, no solo imita, sino que a menudo supera lo que creíamos que era solo nuestro, lo genuinamente humano. Pero, ¿qué pasa cuando una de estas “mentes” creadas con código y datos toma una decisión con implicaciones morales serias? Imagina un diagnóstico médico equivocado con un final trágico, un coche autónomo en un callejón sin salida ético, o un sistema de selección de personal que, sin querer, termina discriminando. Aquí es donde la cosa se enreda de verdad: ¿quién carga con la responsabilidad?

AISTUDIO
A ver, ¿es el programador, que quizás no vio venir todos los posibles tropiezos? ¿La empresa que la puso a funcionar, buscando ser más eficiente o innovar? ¿El usuario que la manejó, tal vez de una forma que nadie anticipó? ¿O le echamos la culpa a la propia IA, si es que le damos algún tipo de “poder de decisión”? La verdad es que no hay una respuesta sencilla. Es más bien una maraña donde la responsabilidad se diluye, como si se la llevara el viento. Nuestras leyes, las de siempre, se basan mucho en si hubo intención o si se podía prever algo.
Regulando lo Impredecible
Pero claro, ¿cómo aplicas eso a algo que, aunque lo hayamos diseñado, aprende y evoluciona de formas que ni nos imaginábamos? Supongo que ya te lo imaginas: todo esto nos obliga, y con bastante prisa, a pensar en nuevas leyes, en acuerdos internacionales que intenten poner un poco de orden en este camino que va a toda velocidad. Si miras hacia atrás, cada vez que aparece una tecnología que lo cambia todo —desde la imprenta hasta la energía nuclear—, al final hemos necesitado ponerle reglas para controlar los riesgos y aprovechar lo bueno.
Piensa en la Declaración Universal de Derechos Humanos, que surgió después de una guerra mundial donde la tecnología también hizo de las suyas, para mal. Pues quizás necesitamos algo parecido para la IA, unos “Principios Universales” que marquen límites y aclaren quién responde por qué. Aunque, seamos sinceros, ponernos de acuerdo a nivel mundial va a ser una odisea. Un tira y afloja constante entre lo ético, lo tecnológico y lo legal.
El Lenguaje: Clave en la Era de la IA
Y aquí, en todo este lío, el lenguaje se vuelve protagonista. Y es que el lenguaje es mucho más que palabras. No es solo un espejo de cómo vemos el mundo; es también la herramienta con la que damos forma a esa visión y, al final, al mundo mismo. Piensa en esto: cada palabra que usamos para hablar de la IA…, ¿es una “herramienta”, un “ayudante”, un “colega”, una “amenaza”? Eso ya cambia cómo la vemos y cómo nos relacionamos con ella. Si la llamamos “inteligencia” artificial, ya le estamos dando un aire humano, aunque su forma de “pensar” no tenga nada que ver con la nuestra. Ya lo dijo Wittgenstein: “Los límites de mi lenguaje son los límites de mi mundo”.
Cuando ponemos nombre a las cosas, las metemos en cajones. Y esos cajones pueden abrir puertas o cerrarlas, incluir o dejar fuera. Fíjate cómo el lenguaje ha moldeado la sociedad: palabras hirientes han servido para oprimir, y un lenguaje que respeta ha sido clave para luchar por la igualdad. El lenguaje tiene esa fuerza, puede ser motor de cambio para bien o para mal. Claro que sí, puede inspirar, unir, ayudarnos a imaginar un futuro mejor. Pero, como bien dices, también puede ser un arma para manipular o esconder cosas que no queremos ver. George Orwell en “1984” nos lo dejó clarísimo: si perviertes el lenguaje, puedes controlar el pensamiento. “Pero si el pensamiento corrompe el lenguaje, el lenguaje también puede corromper el pensamiento”.
La IA como Reflejo de Nuestros Sesgos
Y esto del lenguaje es todavía más delicado si pensamos que las IA, sobre todo las que manejan texto, no solo las describimos con palabras, sino que aprenden de la montaña de textos que hemos escrito como humanidad: con nuestros sesgos, prejuicios, aciertos y errores. Si le damos a una IA textos llenos de desigualdades, ¿nos extraña luego que sus “decisiones” o lo que “crea” siga por el mismo camino? Al final, la IA puede acabar siendo un altavoz de lo mejor y lo peor de nosotros.
Cómo hablemos de la IA y cómo la programemos para que use el lenguaje va a ser clave para ver qué impacto tiene. ¿Usaremos un lenguaje que nos una, que nos ayude con los problemas gordos, que abra caminos al arte y al conocimiento? ¿O uno que nos separe más, que siembre desinformación y desconfianza?
Me imagino que no dentro de mucho, podríamos necesitar "ingenieros de lenguaje ético" tanto como programadores. Gente que se dedique a revisar los datos con los que aprenden las IA, a pensar cómo interactuamos con ellas para entendernos mejor, y a estar ojo avizor con cómo el lenguaje de y sobre la IA nos está cambiando. Va a ser un trabajo calculado, porque el lenguaje está vivo, cambia, y cada uno lo interpreta a su manera, según su cultura y sus vivencias. No vale solo con tener leyes en un papel si luego, en el día a día, no hablamos de estas tecnologías (y entre nosotros sobre ellas) con esa misma idea de fondo. Piensa en el pasado: la escritura lo cambió todo, permitió guardar el conocimiento, crear leyes más complejas y que los imperios crecieran. Pero también creó diferencias entre quienes sabían leer y quienes no. Cada avance gordo en cómo nos comunicamos, desde el telégrafo a Internet, ha supuesto un meneo parecido en el poder, el saber y cómo vemos la realidad. La IA, en ese sentido, es como una nueva frontera para nuestra mente y nuestro lenguaje.
La Responsabilidad de la Creación: Aprendiendo de Frankenstein
Acuérdate de “Frankenstein” de Mary Shelley. Muchas veces se ve como un aviso sobre los peligros de la ciencia sin control, pero también es una reflexión muy honda sobre qué significa crear algo y ser responsable de ello. El Dr. Frankenstein no es “malo” por querer avanzar en la ciencia, sino porque abandona a su criatura, porque no se hace cargo, no le enseña, no asume lo que ha hecho al darle “vida”. “Nada duele tanto a la mente humana como un cambio grande y repentino”, escribió Shelley. Y vamos, que estamos en medio de uno de esos. El tema no es pararlo, porque las ganas de saber y crear no las frena nadie. El tema es cómo lo manejamos.
Así que la responsabilidad no va a ser algo fijo, sino más bien un estar siempre atentos, adaptándonos y hablando. Las leyes y los acuerdos serán como los cimientos, pero lo importante de verdad será que todos tengamos una conciencia ética, y eso se cultiva con un lenguaje que vea lo bueno y lo malo que puede traer todo esto. Si el lenguaje puede encerrar ideas, también puede liberarlas. Si puede crear bronca, también puede tender puentes.
Lo que la IA cambie en nuestras vidas dependerá mucho de cómo usemos el lenguaje para hablar de ella, para relacionarnos con ella y para ponerle normas. Lo que nos toca es conseguir que ese lenguaje nos dé fuerza, promueva la justicia y nos permita seguir llevando las riendas de nuestro futuro, aunque compartamos el escenario con estas “inteligencias” que hemos traído al mundo. El futuro no está escrito en piedra, se escribe con las palabras que elegimos hoy.
Estamos en la Comunidad #Humanitas en su acostumbrada iniciativa de un tema para cada día.
INICIATIVA: Un temα pαrα cαdα dı́α (junio 2025)
Portada de la iniciativa
Dedicado a todos aquellos que, día a día, con su arte, hacen del mundo un lugar mejor.


Dedicado a todos aquellos que, día a día, con su arte, hacen del mundo un lugar mejor.

