ConvergenciasModus Vivendi

IA

Abril, 2023

¿Qué haremos o qué estamos haciendo con la inteligencia artificial? ¿Es ésa, acaso, la pregunta correcta? Quizá sea mejor ir pensando, como nos dice Juan Soto, qué va a hacer ella con nosotros. Medítelo un poco: ¿qué ocurriría si usted se enterara que este texto no fue escrito enteramente por un humano, sino que es el resultado de una “colaboración” con ChatGPT? ¿Sería capaz de decir qué partes del texto fueron escritas por la inteligencia artificial que utiliza algoritmos automáticos para mejorar su capacidad de comprender y producir lenguaje natural? ¿Cómo debería referirse, entonces, la autoría de este texto? 

Alan Turing —ese brillante matemático y lógico británico que contribuyó de manera significativa a la filosofía, el criptoanálisis y a descifrar los códigos de la máquina Enigma utilizados por los nazis durante la Segunda Guerra Mundial— publicó un artículo titulado “Computing Machinery and Intelligence”, en 1950. En esa brillante reflexión se hizo una pregunta que se ha avivado una vez más, quizá, con la llegada del ChatGPT (un modelo de inteligencia artificial desarrollado por OpenAI, capaz procesar y generar texto en diversos idiomas y contextos, y que se utiliza en una amplia variedad de aplicaciones como chatbots, asistentes virtuales, análisis de texto, generación de contenido y más). Esa pregunta fue: ¿pueden las máquinas pensar?

Para responder a esta pregunta ideó una ingeniosa “prueba” a la que denominó “el juego de la imitación”, que consiste en un experimento para evaluar la capacidad de una máquina de exhibir un comportamiento inteligente similar al de un ser humano. Este se juega con tres personas, un hombre (A), una mujer (B) y un interrogador (C) de cualquier sexo. El interrogador debe encontrarse en una habitación distinta a la de los otros dos participantes y el objetivo del juego para el interrogador es determinar cuál de los participantes es el hombre y cuál es la mujer a quienes identificará con las etiquetas X y Y. Al final del juego decidirá si “X es A y Y es B”, o “X es B y Y es A”. Para evitar que los tonos de voz pudiesen ayudar al interrogador a determinar el sexo de los participantes, las respuestas deberían ser tecleadas.

No obstante, Turing se preguntó: “¿Qué pasaría si una máquina asume el rol de A” en ese juego (pero podría ser el de B, en realidad no importa). ¿Discriminaría equivocadamente el interrogador con la misma frecuencia con la que lo hace cuando el juego se juega con un hombre y una mujer? Si el interrogador no puede determinar quién es el humano y quién es la máquina, entonces se puede considerar que la máquina habría pasado el test de Turing, no sólo porque fue capaz de engañar al interrogador, sino porque tendría la capacidad de imitar la inteligencia humana (hacer lo contrario, que el humano imitara a la máquina, implicaría una muy mala demostración al realizar, por ejemplo, operaciones aritméticas, tanto en rapidez como en inexactitud y, sería, está por demás decirlo, un tanto absurdo).

Turing —quien nació en Londres en 1912 y murió en Wilmslow en 1954, dos años después de haber sido procesado por homosexual— estaba convencido de que no merecía mucha discusión responder a la pregunta de si las máquinas podían pensar, y sostenía que, a finales del siglo XX, el uso de las palabras “pensar” y “máquina”, así como la opinión general en torno al tema, habría cambiado tanto que podríamos hablar de máquinas pensantes sin esperar cuestionamiento alguno. Pero, al menos en esto último, se equivocó. Si no lo cree, pregunte a la primera persona que tenga al lado si considera que las máquinas puedan pensar y podrá corroborar que su pensamiento y su respuesta estarán impregnados de ciertos vestigios de corte teológico que asumen que sólo los humanos poseen la capacidad de pensamiento (esta suposición se desprende históricamente de la idea que objetó Turing de que Dios le otorgó un alma inmortal a cada hombre y mujer, pero no a otros animales o máquinas y, por tanto, ningún animal o máquina puede pensar).

¿Y si pensamos y nos interrogamos un poco en el sentido de Turing? Motivos hay muchos. No sólo el de que la FundéuRAE haya seleccionado “inteligencia artificial” como palabra del año en 2022, sino el de que ese reconocimiento se lo otorgó, entre otras razones, debido a las dudas que ha generado su escritura. ¿Y si nos convirtiésemos en los “jueces” del test de Turing? ¿Seríamos capaces de distinguir, por ejemplo, un texto escrito por un humano y otro escrito por una inteligencia artificial?

Cabe aclarar que hoy día hay muchas tecnologías de inteligencia artificial que son líderes en sus respectivos campos: ChatGPT ha demostrado habilidades notables en tareas como generación de texto, traducción, análisis de sentimiento y más; ResNet es una red neuronal profunda especializada en tareas de clasificación de imágenes que ha establecido registros a la precisión en varias competencias de visión por computadora; AlphaGo es un programa por computadora desarrollado por Google DeepMind que es capaz de jugar al juego de mesa Go a un nivel de maestría humana y que ha demostrado ser capaz de aprender a jugar a otros juegos como el ajedrez; TensorFlow es una biblioteca de software de aprendizaje automático de código abierto desarrollada también por Google que se utiliza ampliamente en la industria y la academia para entrenar modelos de inteligencia artificial, etcétera. Hasta el momento no podríamos decir que no hay una y sola “mejor” inteligencia artificial, sino que hay una variedad de herramientas y modelos que son líderes en sus respectivos campos y que se utilizan para resolver una amplia gama de problemas.

Una inteligencia artificial como ChatGPT, por ejemplo, como modelo de lenguaje, está diseñada para generar respuestas en función de las entradas de texto que recibe, por lo que técnicamente podría ser capaz de engañar a un juez humano en el test de Turing. Sin embargo, es importante tener en cuenta que dicha prueba no es una medida perfecta para evaluar una inteligencia artificial, ya que se centra en la capacidad de una máquina para imitar la inteligencia humana y no en su capacidad para realizar tareas complejas y específicas. Además, es importante señalar que el diseño de ChatGPT se enfoca en la producción de texto y lenguaje natural, y no en la realización de otras actividades como la visión por computadora, el reconocimiento de voz, la planificación de rutas, etc. Por lo tanto, en el contexto específico del test de Turing, la capacidad de ChatGPT para aprobarlo dependería de la configuración específica del test, así como de las habilidades y de la experiencia del juez humano involucrado.

Recientemente, una imagen de Julian Assange con el rostro demacrado en una cárcel, que fue hecha con Midjourney (una inteligencia artificial que genera imágenes a partir de texto), comenzó a circular en redes sociales e, incluso, la esposa del mismo activista y fundador de WikiLeaks tuvo que salir a desmentir que la fotografía fuese “real”. En 2021 la editorial Parambook publicó una obra realizada por Birampung (una inteligencia artificial que escribe gracias a un proceso de deep learning). A finales de febrero, en el diario La Vanguardia, a Manuel Castells (profesor español de sociología y autor de los tres volúmenes de La Era de la información), le publicaron un simpático texto generado por ChatGPT3). Y así sucesivamente. La lista de ejemplos es larga. Sería probable que usted conociera algunos adicionales.

Pero ¿qué ocurriría si usted se enterara de que este texto no fue escrito enteramente por un humano, sino que es el resultado de una “colaboración” con ChatGPT? ¿Qué opinión le va a merecer saber que hay partes íntegras escritas por dicha inteligencia artificial de OpenAI? ¿Sería capaz de decir qué partes del texto fueron escritas por la inteligencia artificial que utiliza algoritmos automáticos para mejorar su capacidad de comprender y producir lenguaje natural? ¿Cómo debería referirse la autoría de este texto? Continúe haciéndose preguntas que esto apenas comienza.

Sin duda, estamos entrando en una nueva época cultural donde hasta los que reniegan y entienden poco de las tecnologías y su relación con la vida social están hablando de la inteligencia artificial. Por cierto, fue Marshall McLuhan quien sentenció que el contenido sigue a la forma y que las tecnologías incipientes dieron lugar a nuevas estructuras de pensamiento y sentimiento. No se trata de preguntarnos qué haremos o qué estamos haciendo con la inteligencia artificial, sino qué va a hacer ella con nosotros (aunque le resulte incómodo).

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button