Mayo, 2024
Helga Nowotny es una de las voces imprescindibles en el debate sobre la inteligencia artificial. Se la conoce como la Gran Dama de la Ciencia Austriaca, y no es para menos: su larga trayectoria no se puede resumir en un párrafo. Catedrática emérita de Estudios de Ciencia y Tecnología de la ETH de Zúrich, una de las fundadora y antigua presidenta del European Research Council, miembro del Consejo de la Agencia Internacional de la Energía (IEA) de París y también del Consejo Austriaco de Investigación y Desarrollo Tecnológico… Lejos de los discursos apocalípticos, la investigadora austriaca, defensora del “humanismo digital”, habla en esta entrevista sobre los peligros y los aspectos positivos de integrar la inteligencia artificial a las políticas climáticas.
Al ser humano no le gusta convivir con la incertidumbre. Siempre ha intentado buscar respuestas a su pasado y también a su futuro. Pero el cambio climático está complicando esta última tarea.
Afortunadamente, al ser humano le gusta también evolucionar. Descubrir. Aunque eso no significa que sus experimentos siempre salgan bien. La incerteza se une entonces al miedo a lo desconocido, a lo que pueda pasar. Y hay unas siglas que ejemplifican justamente esos sentimientos: IA.
Son muchas las dudas en torno a la inteligencia artificial. ¿Debemos apostarlo todo a esta nueva tecnología? ¿A manos de quién? ¿Qué arriesgamos? Los más escépticos creen que es el inicio de la rebelión de las máquinas. Los más fanáticos creen que nos salvará.
Helga Nowotny (Viena, 1937) es una de las voces imprescindibles en este debate. Se la conoce como la Gran Dama de la Ciencia Austriaca, y no es para menos: su larga trayectoria no se puede resumir en un párrafo. Catedrática emérita de Estudios de Ciencia y Tecnología de la ETH de Zúrich, una de las fundadora y antigua presidenta del European Research Council, miembro del Consejo de la Agencia Internacional de la Energía (IEA) de París y también del Consejo Austriaco de Investigación y Desarrollo Tecnológico… Siempre alejada de los discursos apocalípticos, apuesta por un futuro colaborativo entre máquinas y humanos. Por el «humanismo digital».
La investigadora lleva décadas compartiendo su postura en universidades e instituciones. Hablamos con ella sobre los usos, tanto positivos como negativos, de esta tecnología en un contexto en el que la crisis climática no se puede obviar.
—Lleva años investigando la inteligencia artificial y es defensora del humanismo digital. ¿Cómo ha llegado a esta postura?
—Es parte de mi postura, sí. Mi vida profesional gira en torno a los estudios de ciencia y tecnología. Siempre me ha interesado la forma en que la ciencia, la tecnología, impactan en la sociedad, pero también cómo la sociedad da forma a la ciencia y la tecnología. Me ha interesado la energía nuclear como fuente de energía y la controversia a su alrededor, los alimentos modificados genéticamente y también su controversia… Y la inteligencia artificial fue obviamente otro avance tecnológico que tuvo y tiene un gran impacto en nosotros.
“En este contexto, en 2019, hubo una iniciativa en la Universidad Técnica de Viena, mi ciudad natal, llamada humanismo digital. Escribimos un manifiesto defendiendo informar a la población sobre estos avances y para que los diseñadores, los desarrolladores, los proveedores, los usuarios tuviesen en cuenta al ser humano, no sólo a la tecnología. En ese escrito, también advertimos contra la enorme concentración de poder económico que se produce con la inteligencia artificial, porque ahora todos estamos en manos de unas pocas empresas internacionales y es muy difícil que los Estados lo regulen. En Estados Unidos no les gusta regular porque creen que impide la innovación, en la Unión Europea tenemos la vanguardia en términos de legislación comunitaria, en China hacen lo que dice el gobierno y este asunto está bajo su control… Tenemos esta inquietud sobre cómo puede la sociedad civil, pero también nuestros gobiernos, tratar de regular la IA y mantener el daño lejos de la ciudadanía”.
—¿Cree necesaria la inteligencia artificial para mitigar el cambio climático?
—La inteligencia artificial tiene muchas ventajas para vigilar lo que está ocurriendo con el cambio climático, tanto los aspectos perjudiciales como, con suerte, los positivos si somos capaces de detener el daño, porque nos ayuda a ver patrones. Ese es el punto fuerte de la IA: permite el reconocimiento de patrones en lugar de ahogarnos en muchos datos. Por ejemplo, con la deforestación. Ahora sabemos mucho con la ayuda de la IA porque tenemos sensores que nos permiten controlar la deforestación, así como analizar si los intentos de reforestación han dado sus frutos o han fracasado. Y, por supuesto, la inteligencia artificial también está ayudando a la ciencia ciudadana a registrar datos mucho más rápido y con mayor precisión. Es una herramienta útil en este sentido, si se utiliza bien.
—¿Cómo afecta nuestra percepción de la tecnología a la visión que tenemos del planeta?
—Ya somos una civilización científica y tecnológica, y cada vez lo somos más. El inconveniente, por supuesto, es la conversión de la tierra. El uso de la tierra está cambiando. Tenemos una expansión de tierra que ya no se utiliza, se deja libre o se utiliza para la agricultura. Así que tenemos una enorme cantidad de erosión del suelo o el suelo está siendo cubierto con asfalto o cemento.
“Un impacto bastante negativo de la IA en el medio ambiente es el enorme uso de energía, agua y tierra. Hablamos de ‘la nube‘, pero en realidad es algo físico. Los datos se almacenan en centros de datos y estos lugares necesitan espacio y esto tiene consecuencias en el uso del suelo. Necesitan agua para su refrigeración y mucha energía. En cuanto a la energía, las empresas nos aseguran que habrá nuevos avances tecnológicos y que podremos trabajar con menos consumo energético. Todavía no ha ocurrido, sin duda habrá avances. Pero creo que es algo que hay que vigilar muy de cerca: cuál es el consumo de energía, agua y suelo de los centros de datos”.
—Porque las empresas pueden no ser transparentes con el consumo energético que supone el desarrollo de estos algoritmos y los centros de datos.
—Exacto.
—¿Cómo regularlo?
—Los Estados deben regularlo. De lo contrario, están en manos de las empresas, y ocurre, de nuevo, esta concentración de poder económico. Lo hemos visto en Irlanda: fue uno de los países que se desvivió por atraer a las empresas de inteligencia artificial con reducciones fiscales, etcétera. Y ahora tiene un problema porque las empresas necesitan más terreno, más energía… ¿Hasta dónde están dispuestos a llegar para luego decir ‘lo siento, nos detenemos aquí, no podemos dejar que sigan haciéndolo’? Es muy difícil porque las compañías vienen y prometen puestos de trabajo, pero no hay muchos, salvo para la construcción de una planta, y luego los trabajadores vuelven a quedarse sin empleo. Porque la inteligencia artificial necesita menos trabajadores, aunque cualificados. Y normalmente traen a su propia gente, así que no hay esa creación de empleo local que tanto prometen.
—Para implementar correctamente las tecnologías basadas en IA, las empresas tecnológicas deben estar, además, dispuestas a compartir conocimientos con la ciudadanía para que pueda aprender y también formarse, especialmente en países empobrecidos, que son los primeros que sufren los riesgos de la crisis climática.
—Sí, pero eso es complicado porque en los países en vías de desarrollo hay una gran carencia de personal médico y educativo. Ahora hay algunos intentos en países africanos para que la inteligencia artificial forme parte de la enseñanza, pero se debe establecer de una manera que esté orientada a la población local y a los conocimientos locales. Si esto se hace bien, puede ser un gran impulso. Hay que fomentarlo, hay que financiarlo. Veo un gran potencial en el campo médico y educativo en estos países.
—Sin embargo, el acceso a la tecnología sigue sin ser equitativo y los datos son más difíciles de recabar en otros países, que justamente son los que necesitan ser más resilientes.
—De nuevo, hay que tener en cuenta el contexto local. El modelo occidental no funciona allí porque el contexto es diferente. En todas las comunidades africanas, la fuente de noticias más importante suele ser la radio local. Una idea sería ir allí y obtener datos de lo que habla la población en vez de ir con un cuestionario porque la gente a veces no está dispuesta a hablar. Es una forma de adentrarse en la cultura local.
—¿No compromete eso su privacidad?
—La privacidad siempre se ve como un problema y realmente no lo es; ya damos muchos de nuestros datos. Y creo que, para África, este no es el principal problema. Necesitan lo que puedan conseguir para sobrevivir y sufrirán enormemente por el cambio climático porque habrá más sequías, inundaciones… En el Sony Lab de París funciona de maravilla, con inteligencia artificial podemos controlar cuánta agua necesita tal planta y cómo regarla mejor. Pero luego hay que trasladarlo a un campo en África donde no hay electricidad, se necesita un generador, hay que mantener ese generador… Todo se vuelve mucho más complicado, pero hay que hacerlo y necesitamos programas más inteligentes para ayudarles a aprovechar lo que la IA puede ofrecerles.
—¿Cuál sería la mejor manera de que los gobiernos desarrollen la inteligencia artificial? ¿Debería ser un desarrollo privado, a través de empresas tecnológicas, con ayuda de financiación pública?
—Depende. En algunos casos, no tendría sentido financiar a una empresa si la empresa lo hace de todos modos. Muy a menudo hablamos de colaboración público-privada, cosa que tiene mucho sentido porque un gobierno tiene ciertos objetivos, entonces se hace un concurso y se escogen ciertas empresas con las que hacerlo. O la empresa tiene una idea y se la propone a un gobierno. Es cuando se llega a una especie de colaboración público-privada, que es un buen modelo porque los gobiernos son incapaces de impulsar una tecnología. Esto se ha intentado muchas veces y, normalmente, no funciona. Y, si se deja que las empresas hagan lo que quieran, entonces hay mucha gente que no saca nada de ello porque sólo se preocupan de dónde pueden obtener beneficios y el resto no les concierne. La privatización no es la solución.
“Por otro lado, creo que la administración pública en general podría hacer más y debe hacer más para integrar la IA pensando en cómo puede ayudarnos. Debería formar parte de cada programa político, preguntándose cómo pueden utilizarla para lograr mejores resultados”.
—En su ensayo La fe en la inteligencia artificial / Los algoritmos predictivos y el futuro de la humanidad (Galaxia Gutenberg, 2022) habla de los peligros de los algoritmos predictivos y de un término interesante: la «paradoja de la predicción», el hecho de que las predicciones sobre el futuro pueden tener un efecto sobre cómo actuamos en el presente. ¿Cómo podemos evitarlo si integramos la inteligencia artificial en nuestras políticas?
—Con conciencia. Las predicciones que hace una IA suelen ser muy convincentes porque son objetivas o lo son en gran medida y entonces la gente empieza a creérselas. Si las personas ya no se cuestionan nada, entonces actúan conforme a esa predicción y acabamos cayendo en la profecía autocumplida o en una ilusión de que realmente funcionará de la manera que imaginamos. Así que se trata de concienciar y, por supuesto, también de enseñar desde la infancia qué es la IA, qué se puede hacer con ella y promover el pensamiento crítico.
—¿Cree que el miedo a la tecnología puede paralizar la lucha climática?
—Sí. El miedo es el peor resultado.
—Y ¿qué hay de lo contrario? ¿Qué ocurre con depender demasiado de una herramienta todavía sin desarrollar del todo?
—Toda nueva tecnología viene acompañada de grandes promesas y expectativas. Hay una curva famosa que lo explica, el ciclo de sobreexpectación, que se ha usado muchas veces para cada nueva tecnología. Las expectativas que tenemos luego bajan y, finalmente, se estabilizan. Deberíamos saber que todo lo que es nuevo, se alaba, se aplaude, se cree que lo revolucionará todo. Pero deberíamos aprender del pasado: habrá decepciones, promesas que no se harán realidad porque eran exageradas… Tenemos que ser más críticos y más realistas.
—¿Qué piensa del «tecnooptimismo»?
—La tecnología nos ha ayudado enormemente a llegar adonde estamos hoy. Así que, desde esta perspectiva, creo que tenemos buenas razones para ser tecnooptimistas, pero también sabemos que la tecnología por sí sola nunca puede resolver nuestros problemas, porque muchos de ellos no son sólo tecnológicos en el sentido estricto de la palabra: tienen que ver con las estructuras de poder en la sociedad, tienen que ver con el afán de lucro y hasta qué punto éste impulsa los avances y descuida otros; tienen que ver con la forma, crítica o acrítica, en que la gente la asume y la convierte en parte de su vida.
—Un futuro equitativo y sostenible dependerá, entonces, de muchos agentes que trabajen juntos para hacerlo posible: gobiernos, empresas, la ciudadanía… ¿Tiene esperanzas de que eso ocurra?
—Nos encontramos en el principio de aprender a vivir con esta nueva tecnología. ¿Qué implica el aprendizaje? Se trata de analizar el feedback, de hacernos preguntas: ¿Qué nos provoca? ¿Cómo podemos cambiarla? Hay que incorporar posibilidades de cambiarla. La tecnología es rápida, es más rápida que cualquier ley y también es más rápida que los gobiernos. Pero creo que tenemos que conseguir que la sociedad civil se sume al proyecto: los usuarios, las escuelas, implicar a los jóvenes… Esto último es muy importante porque ellos son los que determinarán, al final, el buen uso que hagamos de ella.