La directora de la política de modelo y comportamiento de OpenAi, Joanne Jang, ha escrito una publicación de blog sobre X sobre las relaciones Human-AI, ofreciendo algunas ideas bien consideradas sobre el tema y cómo OpenAI aborda los problemas que lo rodean. Esencialmente, a medida que los modelos de IA mejoran en imitar la vida y la conversación, las personas comienzan a tratar los chatbots de IA como también son personas. Tiene sentido que OpenAi quiera dejar en claro que lo están al tanto y que están incorporando los hechos en sus planes.
Pero el enfoque reflexivo y matizado, incluido el diseño de modelos que se sienten útiles y amables, pero no sensibles, pierden algo crucial. No importa cuán claro y cuidadoso Jang intente ser, las personas que tienen conexiones emocionales con IA, un evento atípico ocasional o un hipotético futuro, ahora está sucediendo, y parece estar sucediendo bastante.
Puede haber sido tomado por sorpresa, ya que el CEO Sam Altman ha comentado sobre estar sorprendido por la cantidad de personas antropomorfizan la IA y cómo los usuarios profundamente afirman conectarse con los modelos. Incluso ha reconocido la atracción emocional y sus riesgos potenciales. Por eso existe la publicación de Jang.
Ella deja en claro que Operai está construyendo modelos para servir a las personas y que están priorizando el lado emocional de esa ecuación. Están investigando cómo y por qué las personas forman vínculos emocionales para la IA y lo que significa para dar forma a futuros modelos. Ella hace un punto de distinguir entre la conciencia ontológica, como en la conciencia real que los humanos tienen y perciben la conciencia, si parece consciente de los usuarios. La conciencia percibida es lo que importa por ahora, ya que eso es lo que afecta a las personas que interactúan con la IA. La compañía está tratando de enhebrar una aguja de comportamiento que hace que la IA parezca cálida y útil sin fingir que tiene sentimientos o un alma.
No obstante, el lenguaje clínicamente compasivo no pudo disfrazar un elemento faltante obvio. Se sentía como ver a alguien poner una precaución: letrero del piso húmedo y alardear de los planes para edificios impermeables una semana después de que una inundación salió del piso de la rodilla profundamente en el agua.
El elegante marco y el optimismo cauteloso de la publicación del blog y su enfoque en la creación de modelos responsable basado en la investigación y el condicionamiento cultural a largo plazo dejan de ser la realidad desordenada de cómo las personas desarrollan conexiones profundas con chatbots de IA, incluido el chatgpt. Mucha gente no solo habla con chatgpt como si fuera un software, sino como si fuera una persona. Algunos incluso afirman haberse enamorado de un compañero de IA, o usarlo para reemplazar las conexiones humanas por completo.
Intimidad de ai
Hay hilos Reddit, ensayos medianos y videos virales de personas que susurran dulces nada a su chatbot favorito. Puede ser divertido o triste o incluso enfurecido, pero lo que no es teórico. Las demandas sobre si los chatbots de IA contribuyeron a los suicidios están en curso, y más de una persona ha informado que confiaron en la IA hasta el punto de que se ha vuelto más difícil formar relaciones reales.
Operai señala que la atención constante y libre de juicio de un modelo puede parecer compañía. Y admiten que dar forma al tono y la personalidad de un chatbot puede afectar lo emocionalmente viva que se siente, con apuestas ascendentes para los usuarios absorbidos en estas relaciones. Pero el tono de la pieza es demasiado separado y académico para reconocer la escala potencial del problema.
Porque con la pasta de dientes de la intimidad de la IA ya fuera del tubo, esta es una cuestión de comportamiento del mundo real y cómo las empresas detrás de la IA que forma ese comportamiento responden en este momento, no solo en el futuro. Idealmente, ya tendrían sistemas establecidos para la detección de dependencia. Si alguien pasa horas al día con ChatGPT, hablando como si fuera su compañero, el sistema debería poder marcar suavemente ese comportamiento y sugerir un descanso.
Y las conexiones románticas necesitan algunos límites duros. No prohibirlo, eso sería tonto y probablemente contraproducente. Pero las estrictas reglas de que cualquier IA dedicada a un juego de roles romántico tiene que recordar a las personas que están hablando con un bot, uno que en realidad no está vivo o consciente. Los humanos son maestros de proyección, y un modelo no tiene que ser coqueto para que el usuario se enamore de él, por supuesto, pero cualquier indicio de conversación en esa dirección debería desencadenar esos protocolos, y deberían ser muy estrictos cuando se trata de niños.
Lo mismo ocurre con los modelos de IA en su conjunto. Los recordatorios ocasionales de Chatgpt dicen: “Hola, no soy una persona real”, pueden sentirse incómodos, pero posiblemente sean necesarias en algunos casos y una buena profiláctica en general. No es culpa de los usuarios que las personas antropomorfizan todo. Los ojos googly en Roombas y endurgar nuestros vehículos con nombres y personalidades no se considera más que ligeramente extravagantes. No es sorprendente que una herramienta tan receptiva y verbal como ChatGPT pueda comenzar a sentirse como un amigo, un terapeuta o incluso un compañero. El punto es que compañías como OpenAI tienen la responsabilidad de anticipar esto y diseñarlo, y deberían tener desde el principio.
Se podría argumentar que agregar todas estas barandillas arruina la diversión. Se debe permitir a las personas usar IA como quieran, y que la compañía artificial puede ser un bálsamo para la soledad. Y eso es cierto en dosis moderadas. Pero los parques infantiles tienen cercas y montañas rusas tienen cinturones de seguridad por una razón. La IA capaz de imitar y provocar emociones sin controles de seguridad es simplemente negligente.
Me alegro de que Operai esté pensando en esto, solo desearía que lo hayan hecho antes, o ahora tuvieron más urgencia al respecto. El diseño del producto de IA debe reflejar la realidad de que las personas ya están en relaciones con la IA, y esas relaciones necesitan más que ensayos reflexivos para mantenerse saludables.