IA: “Nunca intentará reemplazar la habilidad del ser humano, sino simplificarla al máximo”

La inteligencia artificial (IA) generó preocupación, asombro e incertidumbre en las últimas semanas. La aparición del Chat GPT mostró que puede hace cosas similares al ser humano. Las fuentes laborales y su capacidad de tomar decisiones como los principales temores que provoca.

El sistema parece inteligente por todo lo que puede hacer en forma automática.

12 de Abril de 2023 08:39

El fantasma de la inteligencia artificial (IA), desde el siglo pasado, nos persigue lejanamente. Pero, en los últimos meses, se nos acercó tanto que sobrepasó la posibilidad de comprender de qué se trata para la mayoría de nosotros. ¿Cuáles son sus verdaderas capacidades? ¿Hasta dónde sigue dependiendo de los seres humanos?

Las novedades se suceden y cuesta, cada vez más, seguir el ritmo de los avances, incluso para los especialistas en el tema. Lo cierto es que ya dejó de ser ciencia ficción y la inteligencia artificial está entre nosotros.

El concepto de inteligencia artificial fue cambiando con los años. En los 60’, la IA era cualquier sistema que pudiera generar que la computadora razonara o implementara la misma línea de razonamiento que un ser humano. Era muy ciencia ficción, muy ambicioso. En ese momento no se hablaba de números, la inteligencia artificial no era una cuestión matemática, sino más bien lingüística. Entonces, los primeros sistemas de IA eran como reglas que el propio ser humano les daba a las máquinas y lo único que se hacía era implementar esta línea de razonamiento: si pasa tal cosa, entonces tal otra. Se utilizaba, mayoritariamente, para hacer diagnósticos médicos y se llamaban Sistemas expertos. Luego se fue todo hacia otro lado y la IA comenzó a basarse en datos, en información, motivados también por el aumento de la posibilidad de almacenamiento. Datos también es un concepto que fue cambiando. Primero eran los que uno ponía en una base de datos en forma numérica, de secuencia numérica y ahora los datos son muchos más que eso: son un texto, las imágenes, las señales, los videos. Entonces, con todo eso, la IA pasó de intentar reproducir el razonamiento humano a querer analizarlos y que generen nueva información. Por ejemplo, analizar datos para ver qué tratamiento es el mejor a aplicar en determinados diagnósticos”, comienza explicando el ingeniero electrónico Gustavo Meschino, director del Laboratorio de Bioingeniería del Instituto de Investigaciones Científicas y Tecnológicas en Electrónica (Icyte, dependiente de Conicet y la Unmdp).

Como con toda creación del ser humano, el miedo es sobre para qué lo vamos a usar.

La inteligencia artificial comienza a revalidar su nombre cuando empieza a descubrir información cada vez mejor y más rápida y a aprender de esos datos. Ahí está el gran paso en la evolución de la IA, el paso de lo lingüístico, psicológico, a un enfoque más bien netamente matemático. Los datos pasan a ser manejados matemáticamente y el sistema es capaz de procesar enormes cantidades de información y esto le permite sacar conclusiones o saber algo que está oculto en esos datos y por eso nos parece inteligente. “No tienen, en realidad, nada de inteligentes. Son algoritmos matemáticos que procesan esos datos que, en definitiva, son números también. Realmente es algo que supera la capacidad humana porque nosotros no podemos procesar, por ejemplo, diez mil imágenes de mil clases distintas a esa velocidad. El sistema parece inteligente porque aprende a hacer una tarea mostrando el ejemplo”, agrega Meschino.

-Ahí tenemos algo importante ¿Aprende realmente o no deja de ser un ejercicio de comparación y generar una estadística? ¿Está bien decir que aprende la IA? Porque esa personalización también genera sensaciones…

-Claro. Justamente mencionás estadística, el método estadístico es una herramienta de la IA, es lo que a hace evolucionar, la convierte en algo más compleja. La complejidad del algoritmo implica que cada vez es más difícil lo que puede hacerse, porque tenemos más capacidad computacional y más capacidad de memoria. Y ahí están los otros aspectos: la complejidad del algoritmo, la memoria y la velocidad con la que pueden hacerse las cosas. Si un sistema hoy tarda semanas en aprender, ahora definimos aprender en este contexto. En los 90’ se tardaba años. Hoy en un celular tenemos una capacidad computacional mayor que la que teníamos en una supercomputadora de los 90’. Retomo lo de “aprender”. No es tan abstracto. Decimos que un sistema de IA aprende cuando uno le puede poner un dato en la entrada, por ejemplo una imagen, y nosotros mismos le decimos al sistema qué queremos reconocer en esa imagen. Por ejemplo: ponemos resonancias magnéticas de cerebros con párkinson y otras no. Nosotros le decimos al sistema computacional cuál es cuál y el sistema se adapta internamente de modo que, cuando yo muestre las imágenes él me diga: “Esta imagen tienen párkinson, esta también, esta no”. Entonces, el sistema se adapta para reconocerlas. Cuando decimos se adapta, decimos que se cambian números. Son siempre números, ese es el modelo matemático. Ese sería el proceso de aprendizaje. Ahí no parece, aún, tan inteligente. La inteligencia se pone en evidencia cuando vos venís con otra imagen, que el sistema no conocía, y utiliza su capacidad para generalizar lo que aprendió. Usamos el término aprender pero está claro que no hay nada aprendido y nada de inteligencia. Es todo algorítmico. Vos le ponés una nueva imagen y, si el sistema estuvo bien entrenado, va a poder generalizar, que es un poco lo que hace el ser humano cuando aprende.

Entonces, el sistema parece inteligente por todo lo que puede hacer en forma automática, por esa capacidad de cómputo de manejar terrible cantidad de información en poco tiempo.

Gustavo Meschino es director del Laboratorio de Bioingeniería del Instituto de Investigaciones Científicas y Tecnológicas en Electrónica.

-Sabemos, entonces, lo que puede hacer. Pero vamos por la negativa: ¿qué no pude hacer la IA hoy? ¿Puede pensarse a sí misma?

-Hasta hace unos meses te hubiera dicho que una computadora puede generar un texto, pero vos te vas a dar cuenta de que no es de un ser humano porque no tiene sentido, o tiene errores de sintaxis u otros. Vos podías reconocer lo que hizo una computadora de lo que hizo un ser humano. El gran salto de la IA, me parece, de los últimos años (y es literal lo de los últimos años) fue el salto en esa generalización de datos que decíamos, más la capacidad de generar datos. Esa producción de datos hasta hace un tiempo era ridícula, vos te dabas cuenta si un rostro era generado por una computadora, pero hoy no lo podés distinguir. Así llegamos a la locura del Chat GPT. Ahora estamos todos hablando de esto, que no cambia el concepto de lo que te vengo diciendo, lo que cambió fue la escala. Los más grandes del mundo se juntaron para entrenar un sistema, no con cien mil textos, sino con todo el texto disponible de internet hasta septiembre del 2021 (que es la versión que se tiene gratis hoy). ¿Puede un sistema aprender todo esto? Sí, lo hizo y no solo aprende sino que, además, puede generar cosas parecidas a las que aprendió y ahí está el nuevo enfoque, lo que da miedo de la IA: con todo lo que aprendió te generó un texto que no podés distinguir si lo hizo la IA o un ser humano. Ahora, ¿es inteligente eso? No sé, porque en realidad utilizó la información que nosotros mismos le dimos. Lo que pasa es que lo hace tan bien, y encima en un formato tan parecido al que hubiesen hecho los seres humanos, que genera temor ese avance.

-Entonces, la pregunta es si con estos avances sigue dependiendo de que carguemos datos nosotros o no…

-La generalización ya puede generar mucho impacto y parecer inteligente, y si encima ya puede generar cosas por sí misma, asusta. Está generando cosas casi al nivel del ser humano y me parece que el miedo viene por el desconocimiento. Una analogía interesante es cuando Microsoft sacó la planilla de cálculos. Los contadores, con el Excel, creían que se iban a a quedar sin trabajo porque el sistema ya contenía todos los datos y era capaz de analizarlos más rápido y hacerte gráficos y demás. Con el correr de los años quedó claro que no le quitó el trabajo a nadie. Simplemente cambió la dirección de lo que era ese trabajo. Tuvieron que aprender cosas nuevas y sacarle provecho. Quiero decir que el tipo de trabajo que se va a necesitar será cada vez más complejo.

-La preocupación es por la pérdida de puestos de trabajo, pero ¿hay algo más? ¿Por qué la preocupación de tantos intelectuales y gente vinculada al sector para llegar a pedir que se pare con la investigación?

-Creo que el mensaje es, en realidad, no que se pare la investigación, sino que vayamos con más cuidado. Porque el avance que se tuvo en este último año sorprende también a los mismos que generaron el sistema. Y, como con toda creación del ser humano, el miedo es sobre para qué lo vamos a usar. Esto no es nuevo, pasó con la energía atómica, por ejemplo, y supongo que pasará con cada cosa que descubra el ser humano. El miedo es por la finalidad que le vamos a dar. Hay que poner límites. Por ejemplo, si yo le digo a la IA que me ayude en un asesinato, hoy me responde que no lo va a hacer porque en su entrenamiento tuvo límites éticos. Lo mismo si le pido ayuda para bajar un PDF de un libro, me va a decir que no se puede porque hay un problema de copia o de derechos de autor en esa actividad. Me parece que el miedo no es tanto a lo que la IA pueda hacer, sino al uso que el ser humano le va a dar.

La aparición del Chat GPT mostró que puede hace cosas similares al ser humano.

-Es decir que sos muy optimista sobre lo que pasa y lo que viene…

-Totalmente. La palabra es optimista ciento por ciento, con todas los cuidados y las posibilidades éticas y morales que estoy diciendo, porque son inherentes al ser humano, no al sistema computacional que hace lo que el ser humano le va diciendo.

La situación y el momento histórico que muchos vivimos en las historias de ciencia ficción desde hace mucho tiempo atrás generan incertidumbre. El avance es muy veloz, se escapa de las manos. Es imposible estar actualizado por la ligereza con que se mueve y por la cantidad de material que aparece constantemente. Pero, además de la cuestión científica, está la veta comercial. Lo vinculado a la ciencia se publica, se anticipa, pero aquello que tiene otro destino se guarda hasta que está listo para ser compartido. La masividad de la información ha generado y contagiado también ese temor. Le ponemos como nombre Inteligencia Artificial y le agregamos que supera lo que hace el ser humano y se genera una fórmula para el temor. Sostiene Meschino: “Es obvio que es la complejidad lo que asusta. El trabajo se restructura y la capacidad computacional avanza a una velocidad tremenda, tanto que nunca se logra disponer de lo último y eso te da un poco de aire. Nos da cierto tiempo. Pero el mensaje sería que esto nunca intentará reemplazar la habilidad del ser humano, sino intentar simplificarlo al máximo”.

La IA ya está entre nosotros y más que su fantasma es algo, o alguien (¿?), concreto que sigue asombrándonos y provocando incertidumbre. Los resultados no se saben. Se desconoce el futuro, un futuro muy a corto plazo. Lo que sí es cierto es que siempre se necesitó mesura. Quizás la necesidad hoy sea avanzar a un ritmo que permita hacer las cosas bien y seguras.