En Resumen
- Yuval Noah Harari advirtió en Davos que la humanidad corre el riesgo de perder el control sobre el lenguaje ante agentes de IA.
- El autor de "Sapiens" afirmó que la IA se hará cargo del sistema legal, los libros y la religión si dominan el lenguaje.
- La profesora Emily Bender rechazó el planteamiento y señaló que "inteligencia artificial" es un término de marketing sin base.
El historiador y autor Yuval Noah Harari advirtió el martes en el Foro Económico Mundial que la humanidad corre el riesgo de perder el control sobre el lenguaje, al que llamó su "superpoder" definitorio, a medida que la inteligencia artificial opera cada vez más a través de agentes autónomos en lugar de herramientas pasivas.
Harari autor de "Sapiens", se ha convertido en una voz frecuente en los debates globales sobre las implicaciones sociales de la inteligencia artificial. Argumentó que los códigos legales, los mercados financieros y la religión organizada dependen casi por completo del lenguaje, dejándolos especialmente expuestos a las máquinas que pueden generar y manipular texto a gran escala.
"Los humanos conquistaron el mundo no porque seamos los más fuertes físicamente, sino porque descubrimos cómo usar las palabras para lograr que miles, millones y miles de millones de extraños cooperen", dijo. "Este fue nuestro superpoder".
Harari señaló las religiones basadas en textos sagrados, incluidos el judaísmo, el cristianismo y el islam, argumentando que la capacidad de la IA para leer, retener y sintetizar vastos cuerpos de escritura, podría convertir a las máquinas en los intérpretes más autorizados de las escrituras.
"Si las leyes están hechas de palabras, entonces la IA se hará cargo del sistema legal", afirmó. "Si los libros son solo combinaciones de palabras, entonces la IA se hará cargo de los libros. Si la religión está construida a partir de palabras, entonces la IA se hará cargo de la religión".
En Davos, Harari también comparó la propagación de los sistemas de IA con una nueva forma de inmigración, y señaló que el debate en torno a la tecnología pronto se centrará en si los gobiernos deberían otorgar a los sistemas de IA personalidad jurídica. Varios estados, como Utah, Idaho y Dakota del Norte, ya han aprobado leyes que establecen explícitamente que la IA no puede ser considerada una persona bajo la ley.
Harari cerró sus comentarios advirtiendo a los líderes globales que actúen rápidamente en las leyes relacionadas con la IA y que no asuman que la tecnología seguirá siendo un sirviente neutral. Comparó el impulso actual para adoptar la tecnología con casos históricos en los que mercenarios luego tomaron el poder.
"Dentro de diez años, será demasiado tarde para que ustedes decidan si las IA deberían funcionar como personas en los mercados financieros, en los tribunales, en las iglesias", agregó. "Alguien más ya lo habrá decidido por ustedes. Si quieren influir en hacia dónde va la humanidad, necesitan tomar una decisión ahora".
Sin embargo, los comentarios de Harari pueden golpear fuerte a quienes temen la propagación avanzada de la IA, pero no todos estuvieron de acuerdo con su planteamiento. La profesora Emily M. Bender, lingüista de la Universidad de Washington, dijo que posicionar los riesgos como lo hizo Harari solo desvía la atención de los actores humanos y las instituciones responsables de construir e implementar sistemas de IA.
"Me parece que es realmente un intento de ofuscar las acciones de las personas y corporaciones que construyen estos sistemas", señaló Bender a Decrypt en una entrevista. "Y también una demanda de que todos deberíamos renunciar a nuestros propios derechos humanos en muchos dominios, incluido el derecho a nuestros idiomas, ante los caprichos de estas empresas bajo la apariencia de estos llamados sistemas de inteligencia artificial".
Bender rechazó la idea de que "inteligencia artificial" describa una categoría clara o neutral de tecnología.
"El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías", afirmó. "Es, efectivamente, y siempre ha sido, un término de marketing", agregando que los sistemas diseñados para imitar profesionales como médicos, abogados o clérigos carecen de casos de uso legítimos.
"¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, una persona del clero, y así sucesivamente?", dijo Bender. "El propósito ahí es el fraude. Punto".
Mientras que Harari señaló el uso creciente de agentes de IA para gestionar cuentas bancarias e interacciones comerciales, Bender dijo que el riesgo radica en la facilidad con la que las personas confían en resultados generados por máquinas que parecen autorizados, pero carecen de responsabilidad humana.
"Si tienes un sistema al que puedes hacerle una pregunta y que te devuelva algo que parece una respuesta, que está despojado de su contexto y despojado de cualquier responsabilidad por la respuesta, pero posicionado como proveniente de algún oráculo omnisciente, entonces puedes ver cómo las personas querrían que eso existiera", señaló Bender. "Creo que hay mucho riesgo de que las personas comiencen a orientarse hacia él y a usar ese resultado para dar forma a sus propias ideas, creencias y acciones".

