El 29 de diciembre del año pasado la Fundación del Español Urgente (FundéuRAE), patrocinada por la agencia Efe y la Real Academia Española, eligió la expresión “inteligencia artificial” (IA), como “la” palabra de 2022. Pero si el año pasado se la encontraba casi en cada página, desde entonces esa reiteración se multiplicó varias veces. Basta con tipearla en el buscador del diario The New York Times, por poner un ejemplo, para constatar que en los últimos meses, casi cada dos días hay un artículo sobre algún aspecto de esta “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”, según la definición a la que recurrió la fundación.
Con sistemas capaces no solo de dialogar y escribir ensayos sobre el tema que se les pida, de crear ilustraciones, poemas, música y canciones, no hay duda de que el tema alimenta “tecnofantasías” de todos los signos. Para analizar sus avances y el impacto que tiene y tendrá en múltiples facetas de nuestra vida, la Facultad de Ciencias Exactas de la UBA organizó un debate con especialistas y graduados de esa casa de estudios, algunos de los cuales trabajan en California y en Barcelona, con la coordinación del decano, el matemático Guillermo «Willy» Durán.
A favor y en contra
“Hay infinidad de notas en los medios y en trabajos científicos de lo que se conoce como inteligencia artificial general, que aunque no está bien definida es esta idea de una inteligencia con capacidades similares o superiores a las humanas. Creo que es importante tratar de entender sus límites”, dijo Carlos Diuk, investigador en el equipo de Ciencias Sociales Computacionales de Facebook/Meta, especialista en aprendizaje por refuerzos, neurociencia cognitiva e impacto social de la tecnología, desde Silicon Valley. El científico mostró que le planteó al Chat GPT un problema y se encontró con respuestas muy articuladas, algo que ya de por sí es impresionante, pero que una parte de ellas son “alucinaciones”; es decir, errores. Y esto no se soluciona ni con más o mejores datos, ni con más parámetros ni con más cómputo aclaró. “Estos modelos de lenguaje [llamados LLM] no ‘entienden’ lo que les estamos preguntando –subrayó–. Y la solución no es obvia ni trivial. Lo que hacen es predecir la siguiente palabra a partir de un contexto; entonces, en cada paso hay una probabilidad creciente de obtener un conjunto de respuestas erróneas”.
Para Diuk, la inteligencia artificial va a cambiar muchas cosas, pero ni tan rápido ni tan pronto como se piensa; por lo tanto, lo que necesitan nuestros países es más y mejor educación. “A veces escucho que alguien dice ‘¿para qué voy a estudiar si la inteligencia artificial me va a sacar el trabajo?’ Y yo creo que es exactamente lo opuesto. Tenemos que salir de este laberinto por arriba”, afirmó.
La búsqueda de una inteligencia artificial se disparó a partir de un paper cardinal de Alan Turing, publicado en 1950. Desde entonces, diversas líneas de investigación intentan hacer procesamiento del lenguaje, producir audio, detección de imágenes, planificación, optimización combinatoria y más. “Todo esto generó un avance, tanto copiando el comportamiento humano como en tareas muy, muy específicas. Como se dice en inglés, narrow (angostas), pero no en inteligencia artificial general –explicó Diego Fernández Slezak, profesor del Departamento de Computación de ExactasUBA, investigador del Conicet en inteligencia artificial el Instituto de Ciencias de la Computación, y Premio Konex 2023–. Uno de los casos más paradigmáticos es el ajedrez. En 1996, Gary Kasparov se enfrenta contra la máquina de IBM, Deep Blue, y pierde la primera partida, pero gana el campeonato. Le dicen que no siga adelante, porque en algún momento va a perder. En 1997, juega la revancha y pierde el campeonato. En ese momento se dijo que nadie iba a tener interés en seguir jugando. Pero hoy, aunque cualquier celular le gana a un gran maestro, el ajedrez está más vigente que nunca. Kasparov dijo algo que a mí me gusta mucho: ‘Hay que abrazar la tecnología’. Quiere decir que no la dejemos suelta, que aprendamos, que la entendamos y la usemos lo mejor posible. Opino que no hay que frenarla, pero tampoco dejarla avanzar sola”.
Un aspecto que inquieta respecto de estos nuevos avances en máquinas “inteligentes” es el de la dimensión ética o moral, los sesgos imperceptibles para legos y la inequidad en el acceso. “Estas capacidades alucinantes que nos tienen muy sorprendidos se deben en parte a que ahora tenemos modelos matemáticos enormes y súper poderosos –dijo Luciana Ferrer, investigadora Independiente Conicet en el Instituto de Ciencias de la Computación Exactas/UBA, especialista en procesamiento del habla y procesamiento de señales–. Tienen millones de millones de parámetros y requieren dos cosas: primero, una ‘brutal’ capacidad de procesamiento, de computación, ejércitos de computadoras para entrenarlos; y segundo, muchísimos datos. Esto implica que no todo el mundo los puede ‘correr’. Hay solo unas pocas empresas en el mundo que son capaces y tienen el hardware necesario, y eso significa que estamos limitados a usar lo que ellos generan. Por ahora, nosotros no podemos desarrollarlos (esperemos que en algún momento cambie) ni soñando. Podemos generar algunos modelos, mucho más modestos, más chiquitos, que funcionan bastante peor. Chat GPT, no hay manera. Y eso, tanto para la industria como para los investigadores, es un problema”.
Un desafío particularmente difícil de resolver es que se requieren muchísimos datos y la fuente más grande que existe es Internet. “Pero es un muestreo muy desbalanceado de la población mundial –continuó Ferrer–. Alrededor del 50% son en inglés y apenas habla inglés nativo el 5% de la población. Es una representación muy desbalanceada del planeta, no solo en lo que hace al idioma, sino también a la cultura. En la web hay un subconjunto muy pequeño. [En realidad] existe muchísima más variedad de lo que nosotros vemos y lo que ven estos modelos. La consecuencia es que no a todo el mundo le van a funcionar bien cuando los quieran usar y, peor todavía, a veces, algunos grupos se verán perjudicados en forma activa”.
Como ejemplo, la científica citó una tecnología de reconocimiento facial en uso en los Estados Unidos para buscar sospechosos. Cámaras de video en distintos lugares de una ciudad los buscan con un algoritmo, porque la masa de datos es gigantesca. “Y lo que pasó ya varias veces es que arrestaron al sospechoso equivocados eso ocurrió con mayor frecuencia si la persona tenía piel oscura –ilustró–, porque los algoritmos fueron entrenados mayoritariamente con hombres de piel blanca, que son los que están en Internet. Y a pesar de que se sabe que están funcionando mal, se los sigue usando”.
Vanina Martínez, investigadora del Conicet en el Instituto de Ciencias de la Computación Exactas/UBA y en el Instituto de Investigación en Inteligencia Artificial de Barcelona, especialista en ética de la inteligencia artificial, sistemas multiagente, representación del conocimiento y razonamiento, y Premio Konex 2023, se definió más bien como “tecnoescéptica”.
“No con respecto al potencial de la tecnología –aclaró Martínez–. Creo que estamos en un momento fantástico para la ciencia, la tecnología y la ingeniería. Pero hay un interrogante que está dando vueltas y es ¿cómo vamos a controlar estos sistemas? Cuando nosotros hacemos esa pregunta, pareciera que hubieran caído del cielo. Y eso habla de la sociedad que no es responsable de lo que crea. Estos sistemas los creamos nosotros y los pusimos afuera del laboratorio. No hay que perder esto de vista. No tenemos que aceptar lo que viene y tratar de doblegarlo enseñándole al usuario a hablar con el sistema para que no se desbande. No, no es así. Es nuestra tecnología, y el avance positivo o negativo se va a dar en relación con los objetivos que tenga nuestra sociedad. Pareciera que los objetivos con los que desarrollamos esta primera generación de modelos de inteligencia artificial tan potentes no están muy alineados con el bienestar social. Tenemos que plantearnos cómo vamos a avanzar, y tal vez tirarlos a la basura y quedarnos con los fundamentos científicos. Arrancar por un lado en el que sintamos que estamos en control de la tecnología desde el momento cero”.
Jorge Sanz, investigador principal en el Departamento de Inteligencia Artificial y Director de Innovación Tecnológica para Finanzas de IBM Research (FinTech), especialista en Innovación con machine learning para industrias, en tecnologías para regulación y normas legales, compartió también desde California algunas reflexiones respecto de las aplicaciones en industrias.
“Las aplicaciones de automatización en las que la inteligencia artificial juega un rol preponderante y muy promisorio –detalló– se encuentran en la biología, la química, la física, la prospección climática, etcétera. Pero cuando se trata de usar esto en las empresas y otras organizaciones, las funciones fundamentales son reducir costos y crear cosas más convenientes para el usuario. Es decir, eficacia y eficiencia. La eficiencia es reducción de costos. La eficacia es producir cosas que son mejores para el que compra. Los resultados varían por industria. Si uno mira la manufactura, en el 99% de los casos, el tipo de IA que se está empezando a utilizar, está orientado a datos y no necesariamente es un reflejo del comportamiento de la organización o de las personas. El lenguaje no es el punto de entrada de ninguno de los análisis de datos que vemos en la realidad cotidiana. Ojo, tengamos cuidado, porque el 70% de la información que usa la empresa en la toma de decisiones se basa en observaciones simbólicas que no son necesariamente basadas en lenguaje. Por favor, no reduzcamos la IA a discutir el problema del ChatGPT, porque hay un mundo por fuera de eso… Los autos de Tesla se manejan solos en autopistas y ciudades, y nadie les habla”.
Deja tu comentario!