“La inteligencia artificial, si estamos siendo franco, es una estafa: una factura de bienes que te están vendiendo para alinear los bolsillos de alguien”.
Ese es el corazón del argumento que la lingüista Emily Bender y la socióloga Alex Hanna hacen en su nuevo libro The Ai Con. Es una guía útil para cualquier persona cuya vida se haya cruzado con las tecnologías vendidas como inteligencia artificial y cualquier persona que haya cuestionado su verdadera utilidad, que es la mayoría de nosotros. Bender es profesor de la Universidad de Washington que fue nombrada una de las personas más influyentes de la revista Time en inteligencia artificial, y Hanna es la directora de investigación en el Instituto de Investigación de IA distribuido sin fines de lucro y ex miembro del equipo ético de IA en Google.
La explosión de Chatgpt a fines de 2022 inició un nuevo ciclo de bombo en la IA. Hype, como los autores lo definen, es el “engrandecimiento” de la tecnología que está convencido de que necesita comprar o invertir en “para que no se pierda el entretenimiento o el placer, la recompensa monetaria, el retorno de la inversión o la cuota de mercado”. Pero no es la primera vez, ni probablemente la última, que los académicos, los líderes gubernamentales y las personas regulares han sido intrigados y preocupados por la idea del aprendizaje automático y la IA.
Bender y Hanna rastrean las raíces del aprendizaje automático hasta la década de 1950, cuando el matemático John McCarthy acuñó el término inteligencia artificial. Fue en una época en que Estados Unidos buscaba financiar proyectos que ayudarían al país a ganar cualquier tipo de ventaja en los soviéticos militares, ideológicos y tecnológicos. “No salió de la cabeza de Zeus ni nada. Esto tiene una historia más larga”, dijo Hanna en una entrevista con CNET. “Ciertamente no es el primer ciclo de exageración con, cita, Unquete, AI”.
El ciclo de exageración de hoy es impulsado por los miles de millones de dólares de la inversión de capital de riesgo en nuevas empresas como OpenAI y los gigantes tecnológicos como Meta, Google y Microsoft que invierten miles de millones de dólares en la investigación y el desarrollo de la IA. El resultado es claro, con todos los teléfonos, computadoras portátiles y actualizaciones de software más recientes empapadas en el lavado de IA. Y no hay signos de que la investigación y el desarrollo de la IA se reducirán, gracias en parte a una creciente motivación para vencer a China en el desarrollo de la IA. No es el primer ciclo de bombo de hecho.
Por supuesto, la IA generativa en 2025 es mucho más avanzada que el chatbot de psicoterapia de Eliza que primero cautivó a los científicos en la década de 1970. Los líderes y trabajadores empresariales de hoy están inundados de publicidad, con una fuerte dosis de FOMO y jerga aparentemente compleja pero a menudo mal utilizada. Al escuchar a los líderes tecnológicos y a los entusiastas de la IA, puede parecer que AI llevará su trabajo ahorrar dinero a su empresa. Pero los autores argumentan que ninguno es totalmente probable, lo cual es una de las razones por las que es importante reconocer y romper la exageración.
Entonces, ¿cómo reconocemos la exageración de la IA? Estos son algunos signos reveladores, según Bender y Hanna, que compartimos a continuación. Los autores describen más preguntas para hacer y estrategias para la exageración de AI en su libro, que ahora está disponible en los Estados Unidos.
Tenga cuidado con el lenguaje que humaniza la IA
Antropomorfización, o el proceso de dar un objeto inanimado, características o cualidades de tipo humano, es una gran parte de la construcción de la exageración de AI. Se puede encontrar un ejemplo de este tipo de lenguaje cuando las compañías de IA dicen que sus chatbots ahora pueden “ver” y “pensar”.
Estas pueden ser comparaciones útiles al tratar de describir la capacidad de los nuevos programas de IA de identificación de objetos o modelos de IA de recuperación profunda, pero también pueden ser engañosas. Los chatbots de IA no son capaces de ver el pensamiento porque no tienen cerebro. Incluso la idea de las redes neuronales, señaló Hanna en nuestra entrevista y en el libro, se basa en la comprensión humana de las neuronas de la década de 1950, no en realidad cómo funcionan las neuronas, pero puede engañarnos para creer que hay un cerebro detrás de la máquina.
Esa creencia es algo a lo que estamos predispuestos debido a cómo nosotros, como humanos, procesamos el lenguaje. Estamos condicionados a imaginar que hay una mente detrás del texto que vemos, incluso cuando sabemos que es generado por AI, dijo Bender. “Interpretamos el lenguaje desarrollando un modelo en nuestras mentes de quién era el hablante”, agregó Bender.
En estos modelos, usamos nuestro conocimiento de la persona que habla para crear significado, no solo usando el significado de las palabras que dicen. “Entonces, cuando encontramos texto sintético extruido de algo como ChatGPT, vamos a hacer lo mismo”, dijo Bender. “Y es muy difícil recordarnos que la mente no está allí. Es solo una construcción que hemos producido”.
Los autores argumentan que parte de por qué las compañías de IA intentan convencernos de que sus productos son como humanos es que esto establece el primer plano para que nos convenceran de que AI puede reemplazar a los humanos, ya sea en el trabajo o como creadores. Es convincente para nosotros creer que la IA podría ser la solución de bala de plata para problemas complicados en industrias críticas como la atención médica y los servicios gubernamentales.
Pero la mayoría de las veces, argumentan los autores, la IA no está acostumbrada a arreglar nada. La IA se vende con el objetivo de la eficiencia, pero los servicios de IA terminan reemplazando a los trabajadores calificados con máquinas de caja negra que necesitan grandes cantidades de cuidado de niños por contratos mal pagados o trabajadores de conciertos. Como lo expresó Hanna en nuestra entrevista, “Ai no va a tomar su trabajo, pero hará que su trabajo sea más mierda”.
Tener dudas de la frase ‘Super Inteligencia’
Si un humano no puede hacer algo, debe tener cuidado con las afirmaciones de que una IA puede hacerlo. “La inteligencia sobrehumana, o súper inteligencia, es un giro de frase muy peligroso, en la medida en que cree que alguna tecnología hará que los humanos sean superfluos”, dijo Hanna. En “ciertos dominios, como la coincidencia de patrones a escala, las computadoras son bastante buenas en eso. Pero si hay una idea de que habrá un poema sobrehumano, o una noción sobrehumana de investigación o hacer ciencia, eso es una exageración clara”. Bender agregó: “Y no hablamos de aviones como volantes o gobernantes sobrehumanos como medidores sobrehumanos, parece estar solo en este espacio de IA que surge”.
La idea de la “súper inteligencia” de IA aparece a menudo cuando la gente habla de inteligencia general artificial. Muchos CEOs luchan por definir qué es exactamente AGI, pero es esencialmente la forma más avanzada de la IA, potencialmente capaz de tomar decisiones y manejar tareas complejas. Todavía no hay evidencia de que estamos cerca de un futuro habilitado por AGI, pero es una palabra de moda popular.
Muchas de estas declaraciones de aspecto futuro de los líderes de IA toman prestados tropos de la ciencia ficción. Tanto los refuerzos como los doomers, cómo Bender y Hanna describen a los entusiastas de la IA y a aquellos preocupados por el potencial de daño, dependen de los escenarios de ciencia ficción. Los refuerzos imaginan una sociedad futurista con IA. Los Doomers lamentan un futuro en el que los robots de IA se apoderen del mundo y eliminen la humanidad.
El hilo de conexión, según los autores, es una creencia inquebrantable de que la IA es más inteligente que los humanos e inevitables. “Una de las cosas que vemos mucho en el discurso es esta idea de que el futuro es arreglado, y es solo una cuestión de qué tan rápido llegamos allí”, dijo Bender. “Y luego está esta afirmación de que esta tecnología en particular es un paso en ese camino, y todo es marketing. Es útil poder ver detrás de ella”.
Parte de por qué la IA es tan popular es que un asistente de IA funcional autónomo significaría que las compañías de IA están cumpliendo sus promesas de innovación que cambia el mundo a sus inversores. Planificación para ese futuro, ya sea una utopía o distopía, mantiene a los inversores mirando hacia adelante, ya que las empresas queman miles de millones de dólares y admiten que perderán sus objetivos de emisión de carbono. Para bien o para mal, la vida no es ciencia ficción. Cada vez que ves a alguien que reclama que su producto AI sale directamente de una película, es una buena señal de abordar con escepticismo.
Pregunte qué entra y cómo se evalúan las salidas
Una de las formas más fáciles de ver a través de AI Marketing Fluff es mirar y ver si la compañía está revelando cómo funciona. Muchas compañías de IA no le dirán qué contenido se usa para capacitar a sus modelos. Pero generalmente revelan lo que hace la compañía con sus datos y, a veces, se jactan de cómo sus modelos se comparan contra los competidores. Ahí es donde debes comenzar a buscar, típicamente en sus políticas de privacidad.
Una de las principales quejas y preocupaciones de los creadores es cómo se entrenan los modelos AI. Hay muchas demandas sobre la supuesta infracción de derechos de autor, y hay muchas preocupaciones sobre el sesgo en los chatbots de IA y su capacidad de daño. “Si quisiera crear un sistema que esté diseñado para avanzar en en lugar de reproducir las opresiones del pasado, tendría que comenzar curando sus datos”, dijo Bender. En cambio, las compañías de IA están agarrando “todo lo que no estaba clavado en Internet”, dijo Hanna.
Si escucha sobre un producto de IA por primera vez, una cosa en particular a tener en cuenta es cualquier tipo de estadística que resalte su efectividad. Al igual que muchos otros investigadores, Bender y Hanna han llamado que un hallazgo sin citas es una bandera roja. “Cada vez que alguien le vende algo pero no le da acceso a cómo se evaluó, está en hielo delgado”, dijo Bender.
Puede ser frustrante y decepcionante cuando las compañías de IA no revelan cierta información sobre cómo funcionan sus productos de IA y cómo se desarrollaron. Pero reconocer esos agujeros en su argumento de venta puede ayudar a desinflar la exageración, a pesar de que sería mejor tener la información. Para obtener más información, consulte nuestro glosario CHATGPT completo y cómo apagar la inteligencia de Apple.