La economía como el último bastión de las bestias

por Rafael Mosteiro*

Un medio para reconocer que los autómatas no son verdaderos humanos, es que estos “jamás podrán usar de palabras, ni de otros signos, componiéndolos como hacemos nosotros para declarar a los demás nuestros pensamientos”, expresaba Descartes en su “Discurso del Método” de 1637. Aproximadamente cuatrocientos años después, la puesta en producción y disposición pública de las herramientas de inteligencia artificial generativa atenúa el categórico “jamás” del comienzo, ampliando aparentemente la frontera de posibilidades de acción de las maquinas. Para Descartes, a su vez, este medio para la diferenciación con los autómatas también nos separa de las bestias (animales), encontrando en la capacidad de generar y comprender el lenguaje como herramienta de comunicación y argumentación, la virtud excepcional del ser humano para la comprobación de la existencia de un alma racional. ¿Podrán generar y comprender el lenguaje como los humanos las nuevas herramientas de inteligencia artificial? Si fuese así, ¿qué nos distingue entonces de un autómata?

La primera pregunta asume implícitamente que estas tecnologías actualmente generan y comprenden lenguaje. Aquellos lectores que hayan ingresado a las herramientas de creación de texto e imágenes disponibles habrán comprobado la potencia de respuesta ante algún requerimiento específico. No obstante, la interrogante presenta su centro en las palabras “como los humanos”, que puede entenderse en dos aspectos: 1) indistinguible de haber sido realizado por un humano o máquina y 2) realizado bajo los mismos procesos que utiliza un humano para generar y comprender textos e imágenes. En el caso del primer punto, existe cierta evidencia a favor de que, incluso desarrollos anteriores a la inteligencia artificial generativa, poseían características que no hacían distinguible al resultado de ser producido por un humano o una máquina[1]. Por tanto, en el resto de la nota, el foco estará puesto en el segundo punto.

La máquina y su modelo mental del mundo

En cuanto a la generación del lenguaje, este último no parecería proceder en los seres humanos como un conocimiento innato, sino más bien, como un desarrollo de la potencialidad que nos brindan las capacidades innatas de formar sonidos articulados y darles concepciones internas a dichos sonidos[2]. En este sentido, el filósofo estadounidense Noam Chomsky desarrolla su gramática generativa a mediados del siglo XX, la cual establece (en términos simplificados) que el ser humano posee la cualidad de desarrollar y crear enunciados en base a la capacidad de aplicar un conjunto reducido de reglas simples de conjugación[3]. De esta manera, además de generarse infinidad de enunciados en base a este conjunto limitado de reglas, se podría establecer un conjunto de palabras probables que completen una frase tal que cumpla con las reglas propuestas. En definitiva, el trasfondo del diseño de las herramientas de inteligencia artificial generativa, las cuales generan enunciados completando la siguiente palabra de acuerdo con la probabilidad que tiene de ocurrir dicha palabra en la frase, contexto y su regla de conjugación.  

Por tanto, si se acepta la gramática generativa, la generación de texto por parte de la inteligencia artificial seguiría en principio los mismos procesos que utiliza un humano, con dos consideraciones. La primera consideración, en pugna por el filósofo francés Eric Sadin, es que los humanos no elegimos en base a probabilidades nuestra siguiente palabra a utilizar, sino que surge espontáneamente y no somos capaces de predecir qué es lo siguiente que vamos a decir[4]. Incluso tomando como cierta esta afirmación, los modelos de lenguaje aplicados en las herramientas de inteligencia artificial poseen la capacidad de “desordenar” las probabilidades de la siguiente palabra, de forma tal que no siempre se elija la palabra más probable y el lenguaje utilizado por la maquina sea menos predecible, y, por tanto, más humano. La segunda consideración es que el humano tiene un potencial de desarrollo de lenguaje extenso a partir de escasos estímulos, mientras que las tecnologías actuales requieren ser alimentadas con grandes volúmenes de información para obtener resultados aceptables. Es decir, que a pesar de que humanos y máquinas podríamos utilizar el mismo proceso para generar lenguaje, el primero todavía es más eficiente en su uso.

Por su parte, en cuanto a la comprensión del lenguaje, a pesar de que la disposición de la inteligencia artificial actual permite captar la esencia del requerimiento realizado y generar un texto bajo las directrices del lenguaje humano, el debate está planteado en torno a si la máquina puede (o podrá) amalgamar los conceptos vertidos de forma tal que, partiendo de ellos, englobe un modelo de interpretación del texto. Este debate se centra en la idea de que la comprensión humana, aunque no esté caracterizada precisamente, parte de la capacidad de desarrollar una conceptualización mental individual del mundo basada en intuiciones físicas, biológicas y psicológicas que permiten clasificar e interpretar estímulos[5]. Esta capacidad de desarrollo en la clasificación e interpretación de los estímulos en base a un «modelo mental del mundo conocido» es, en parte, el segundo medio que Descartes propuso para reconocer que los autómatas no son verdaderos humanos, dado que, en carencia de este, el autómata será eficiente en algunas tareas complejas de cálculo, pero excesivamente falible en tareas sencillas que impliquen comprender el ambiente.

En este sentido, la científica computacional Melanie Mitchell expone que los actuales desarrollos de inteligencia artificial generativa, al estar construidos con herramentales estadísticos que priman la generación de lenguaje en base a correlaciones y probabilidades, no poseen un esquema de conceptos a partir de los cuáles posibilitar una interpretación de lo que se está generando. No obstante, Mitchell señala avances recientes en esta dirección, particularmente, en contextos controlados de juegos de mesa dónde la máquina, con relativamente escasa información de sus reglas, logra hacerse de un modelo conceptual del juego a partir del cual generar movimientos válidos [6]. Aunque este resultado diste aún de la complejidad de las representaciones que nos hacemos los humanos, es un avance sobre la comprensibilidad del ambiente por parte de las máquinas y, por tanto, quizás en un futuro, la comprensibilidad del lenguaje.

En suma, la primera pregunta propuesta parecería responderse afirmativamente a favor de la capacidad de las máquinas en generar y comprender lenguaje como los humanos, a pesar de que este último todavía esté en su etapa potencial. ¿Acaso nada nos distingue de un autómata?

El último bastión de las bestias

En el libro ¿Sueñan los androides con ovejas eléctricas?, el autor de ciencia ficción Phillip K. Dick crea un mundo distópico dónde los animales (en su mayoría extintos) son el bien más cotizado del planeta y conviven de forma aparentemente indistinguible humanos y androides. Frente a la necesidad del humano de realizar esta distinción con el fin de retirar del planeta androides defectuosos, se crea una prueba que logra captar a partir de pequeñas variaciones en el iris ante preguntas sobre violencia/explotación animal la empatía, sentir no adquirido por los androides. El filósofo coreano Byung-Chul Han, en tanto, establece que la inteligencia artificial jamás podrá pensar porque el pensamiento se nutre del eros (el deseo) y la conmoción que genera un nuevo hallazgo[7]. Quizás lo que nos distingue de un autómata sea lo que más nos acerca a las bestias: el sentir. El conjunto de emociones que adquirimos de forma innata y desarrollamos frente a los más inmediatos estímulos, cuyo potencial de incidir sobre nuestro pensar y actuar conllevó a que estos sean la base teórica de una disciplina social: la economía.

En una disciplina tan cuantitativa como la economía puede sonar contraintuitivo que la base teórica sea el conjunto de emociones y su potencial de incidir sobre nuestro pensar y actuar. No obstante, los cimientos marginalistas que reposan sobre la teoría económica moderna son, en definitiva, el placer y el dolor entendidos como medidas de magnitud. En su libro «La Teoría de la Economía Política» de 1871, William Jevons (uno de los padres del marginalismo), expone que el placer y el dolor son los objetivos últimos del cálculo económico. Basados en el utilitarismo de Jeremy Bentham, explicita que las bases filosóficas de este cálculo económico es poder diferenciar que la magnitud del placer o el dolor dependerán de cuatro factores: a) su intensidad, b) su duración, c) su certeza o incertidumbre y d) su cercanía o lejanía. Así como la utilidad de una mercancía será menor a medida que tengamos más de la misma, la intensidad de un placer será menor a medida que aumente la duración del tiempo.

De esta concepción quizás se infiere erróneamente que la utilidad es un tipo de interés particular egoísta que cada individuo busca maximizar. No obstante, el interés personal puede tomar la concepción de aquel interés individual por el aumento de la riqueza (placer) que es moderada por el reconocimiento de los intereses de los demás, siguiendo la tradición de Adam Smith en su obra «La teoría de los sentimientos morales». Esta concepción de interés que sopesa egoísmo y empatía, placeres y dolores, en pos de la mejor elección procurando un beneficio individual o social, es en definitiva, la definición etimológica de la palabra inteligencia. Inteligencia («intuslegere») es saber escoger («legere») entre («intus») opciones. Quizás lo que nos distingue de los autómatas y las bestias es la capacidad de administrar y sopesar nuestras emociones con el fin de escoger entre un abanico de opciones, aquella que en principio implique un placer mayor generando el menor dolor posible. La herramienta que la inteligencia artificial deja en nuestras manos, que las bestias no pueden administrar, que la economía toma como suya, pero a veces queda oculta en sus desarrollos intermedios, la que toma la rienda en decisiones individuales y colectivas en épocas de elecciones. Aquella inteligencia particular que quizás buscaba Descartes para justificar al humano como cuerpo y alma, y que todavía nos evita preguntarnos, como el personaje de la novela de Dick a su compañero de oficio posterior a la ejecución de un androide, si creía que los androides poseían un alma.

______________

[1] Epstein, R., R. G., & Beber, G. (2009). Parsing the Turing Test. California: Springer.

[2] Locke, J. (1999). Ensayo sobre el entendimiento humano. Fondo de Cultura Económica (FCE).

[3] Chomsky, N. (1957). Syntactic Structures. New York: Mouton de Gruyter.

[4] Sadin, E. (2024). La vida espectral. Buenos Aires: La Caja Negra.

[5] Mitchell, M. (2023). AI’s challenge of understanding the world. Science, 382.

[6] Kenneth Li, A. K. (2023). Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task. ICLR 2023 Conference Program Chairs.

[7] Han, B.-C. (2021). No-cosas. Taurus.

______________________________________

* Investigador de Cinve. Magíster en Economía por la Universidad de la República, Uruguay (X: @rmosteiro1, correo: [email protected])

Entrada escrita para el Blog SUMA de CINVE www.suma.org.uy

 

Post Author: Magdalena Nantes