Home Economía La trampa de la personalidad: cómo AI finge la personalidad humana

La trampa de la personalidad: cómo AI finge la personalidad humana

10
0

El conocimiento surge de comprender cómo las ideas se relacionan entre sí. Las LLM operan en estas relaciones contextuales, vinculando conceptos de formas potencialmente novedosas, lo que podría llamar un tipo de “razonamiento” no humano a través del reconocimiento de patrones. Si los enlaces resultantes, las salidas del modelo AI son útiles, depende de cómo lo solicite y si puede reconocer cuándo la LLM ha producido una salida valiosa.

Cada respuesta de chatbot emerge recién salido de la solicitud que proporciona, conformada con datos de capacitación y configuración. ChatGPT no puede “admitir” nada o analizar imparcialmente sus propios resultados, como sugirió un artículo reciente de Wall Street Journal. ChatGPT tampoco puede “tolerar el asesinato”, como escribió recientemente el Atlántico.

El usuario siempre dirige las salidas. Los LLM “saben” las cosas, por así decirlo, los modelos pueden procesar las relaciones entre los conceptos. Pero la red neuronal del modelo AI contiene grandes cantidades de información, incluidas muchas ideas potencialmente contradictorias de culturas de todo el mundo. La forma en que guía las relaciones entre esas ideas a través de sus indicaciones determina lo que emerge. Entonces, si los LLM pueden procesar información, hacer conexiones y generar ideas, ¿por qué no deberíamos considerar que tiene una forma de ser?

A diferencia de las LLM de hoy, una personalidad humana mantiene la continuidad con el tiempo. Cuando regresas a un amigo humano después de un año, estás interactuando con el mismo amigo humano, conformado por sus experiencias con el tiempo. Esta autocontinuidad es una de las cosas que sustenta la agencia real, y con ella, la capacidad de formar compromisos duraderos, mantener valores consistentes y ser responsable. Todo nuestro marco de responsabilidad asume la persistencia y la personalidad.

Una personalidad de LLM, por el contrario, no tiene una conexión causal entre las sesiones. El motor intelectual que genera una respuesta inteligente en una sesión no existe para enfrentar consecuencias en la siguiente. Cuando ChatGPT dice “Prometo ayudarlo”, puede entender, contextualmente, lo que significa una promesa, pero la “I” que hace esa promesa literalmente deja de existir en el momento en que se completa la respuesta. Comience una nueva conversación, y no está hablando con alguien que lo hizo una promesa: está comenzando una nueva instancia del motor intelectual sin conexión con ningún compromiso previo.

LEAVE A REPLY

Please enter your comment!
Please enter your name here