¿A qué problemas éticos nos enfrenta la inteligencia artificial?

Pensamos en cuánto nos puede afectar la Inteligencia Artificial en nuestros días más de lo que pensamos cuánto la usamos a diario. No debemos perder de vista que, por ahora, la IA o las máquinas son lo que hacemos los seres humanos con ella.

4 de Agosto de 2023 08:22

Lo que se conoce como Inteligencia Artificial, o IA, fue creada a mediados del siglo XX, pero la presencia que logró en estos últimos meses ha sido notable. Las preguntas más apocalípticas sobre ella han superados a las cuestiones de su implicancia más cotidiana. Es así que, cuestiones como si el ser humano puede quedarse detrás de ella, o si se quedarán las máquinas con todos los trabajos, o si querrán dominar el mundo y a nuestra raza, marcaron el camino para una opinión significativa sobre el tema, aunque no terminemos de saber muy bien qué significa la presencia de la IA.

Gustavo Salerno es profesor de Filosofía en la Universidad Nacional de Mar del Plata, donde es titular de la catedra de Ética del profesorado de Filosofía. “La IA está en equivalencia a revoluciones paradigmáticas de la historia de la humanidad. Es decir, yo lo equiparo a la revolución agraria, a la revolución industrial y, más contemporáneamente, a esto que nominamos digital o artificial. Incluso, un poco parafraseando a Hegel, me parece que la situación nos permite decir que hemos llegado al punto donde todo aquello que es artificial es real y todo lo real es artificial”, comienza diciendo. Y agrega: “En esta primera consideración, lo que me aparece ante el volumen de lo nuevo es precisamente una consideración del tipo antropológica o psicológica, en el sentido de cómo, en general, reaccionamos ante lo nuevo. La novedad no es de este año, ni siquiera de este milenio, es desde el siglo pasado que hay una presencia significativa”.

-Claro, si uno se pone a pensar el tema, donde primero aparece es la literatura…

-Sí, la primera recepción de lo artificial y de las posibilidades que tenía, hasta donde puedo notarlo, no tuvo lugar dentro del campo académico, más bien dentro de la ciencia ficción. Sobre todo, desde el inicio del siglo pasado, cuando aparece la imagen del robot en el texto del escritor checo Josef Čapek, Robota, que significa trabajo forzado, esclavitud. Entonces hacía referencia a un obrero artificial que estaba, al principio, diseñado para liberar al ser humano del trabajo fatigoso. Lo que ocurre en la trama es que el robot poco a poco va convirtiéndose en un ser casi sintiente y hasta casi consciente, hasta que el esclavo, el robot, termina rebelándose de manera violenta ante su creador y representando, en esa rebelión, una amenaza para toda la humanidad. Entonces, diríamos, ese tropo literario se convirtió en una especie de tópico hermenéutico en la manera corriente, casi espontanea, que utilizamos para comprender la relación entre lo humano y lo artificial.

Se tiende a pensar que la IA va a superar al intelecto humano.

-Y luego vino Hollywood e hizo el resto con películas como Terminator, Matrix y 2001.

-Me parece que ahí se va corporizando, en una suerte de imaginario colectivo en general, donde se tiende a pensar que la IA va a superar al intelecto humano, al punto de convertir a lo humano en algo literalmente prescindible y obsoleto.

Salerno explica que, a su criterio, la IA ha producido la cuarta herida narcisista, siguiendo a Freud, para el ser humano. “Copérnico nos expuso delante de cierta ilusión geocéntrica, es

decir, no somos el centro del universo. Luego, con Darwin, nos damos cuenta de la ilusión antropocéntrica, en el sentido de que no estamos separados del reino animal y el propio Freud cree explicitado y contribuye a humillar una ilusión tradicionalista, porque en definitiva no somos dueños de nosotros mismos a partir de nuestro aparato psíquico, que contiene un inconsciente. Podemos decir que la computación, la informática, o para personalizarlo, Turing con la máquina pensante, nos demuestra en definitiva que no somos los únicos actores ni siquiera en el campo de la lógica”, declara.

-Entonces, ¿a qué problemas éticos nos enfrenta la inteligencia artificial?

-Lo primero que puedo decir es que los desafíos éticos planteados por la IA no deberían llevarnos al desarrollo de una ética artificial. Es decir, deberíamos en principio, poder distinguir y separar incumbencias. No necesitamos una ética artificial, sí universal, como se suele decir dentro del campo disciplinario: una macro ética que a la vez esté situada. Uno de los problemas que plantea, o que abre y que tiene implicaciones éticas, el desarrollo de la IA, es la división que se produce entre el hecho de actuar de modo inteligente y la necesidad de ser inteligente para hacerlo. En el sentido de que hoy las tecnologías consideradas, o que se consideran inteligentes, son tales todavía sobre la base de la performance humana. Afortunadamente, podríamos decir, en definitiva, la inteligencia artificial, o los desarrollos realizados a partir de la IA, que no son realmente ellos inteligentes, son capaces de desarrollar tareas que es claro que consideramos inteligentes en la medida en que a un humano le requeriría inteligencia para llevarlo a cabo.

-Ese afortunadamente que decías recién implica que todavía estamos nosotros por detrás, que somos capaces de manejarlo todavía o creés que va a llegar un momento donde no vamos a ser capaces de manejarlo, y no me refiero a tecnológicamente, sino humanamente, éticamente…

- Apunta a la encrucijada en la cual estamos. En este punto, la ética como disciplina funciona corporativamente o estructuralmente como una de las disciplinas filosóficas. Y la filosofía, en definitiva, siempre llega tarde. Y vuelvo a hacer alusión a Hegel, por lo tanto, no veo el modo en que la ética tenga forma de ser precisa en relación a los pronósticos de resolución o de tratamiento de esa encrucijada. Más bien, tratar de reflexionar sobre un campo que ya está abierto, sobre las situaciones que ya están aconteciendo para, en un principio, tratar de identificarlas en un sentido y, al mismo tiempo o recién luego de ello, para poder darle un marco conceptual que en principio no tiene. La cuestión es esa emergencia y proliferación de la IA. Otro problema consiste en saber si la IA es buena o es mala. Esta es una manera de encarar el problema o, eventualmente, la intencionalidad que vamos imprimirle a él o a los fines que nosotros le pongamos a la IA. Yo creo que todavía estamos a tiempo de direccionar esas tecnologías y, de hecho, el estar a tiempo me lo represento como un imperativo social y político, pero también científico y ético, en el sentido de comprender cuáles son las oportunidades que la IA abre para el presente y para el futuro.

-¿Creés que algo de esto hubo, por ejemplo, en el pedido que se hizo para parar las investigaciones?

-Yo creo que ese pedido nace de un cierto resguardo ético o humanitario si se quiere, en relación a, justamente, una de las cuestiones que más quedan alteradas por esa proliferación de la IA que es la temporalidad. Es decir, el grado de avance y de extensión de los proyectos y avances tecnológicos que tienen una velocidad desmedida. Y la velocidad, o el disponer de tiempo casualmente, no es una de las condiciones del pensamiento crítico y reflexivo y no es algo que venga dado por las compañías o los artífices del desarrollo de la IA.

Podemos ir pensando, entonces, que hay cuestiones éticas que pueden ser asumidas casi como imperativos éticos. Y el primero podría ser que la IA no pierda la referencia de patrón de canon al ambiente humano. Para que en definitiva siempre esté puesta como recurso para afrontar problemas concretos como la desigualdad social, el acceso a la información, al conocimiento, en definitiva, haciendo que la IA sea tan artificial como sea necesario y tan humana como sea posible.

Hemos llegado al punto donde todo aquello que es artificial es real y todo lo real es artificial.

Salerno agrega, “en ese punto, ese imperativo corresponde al usuario. Esa es una exigencia que nosotros los usuarios tenemos que poner delante, eso que está disponible delante de nosotros. Pero después, desde otro punto de vista ético, un imperativo que agregaría es aquello de asegurar que la IA tome, o considere, al ser humano siempre como un fin en sí mismo y no como un medio, para expresarlo en términos kantianos. Yo rescataría la vigencia de esa fórmula del imperativo categórico y la articularía a este contexto. Probablemente en una formulación diversa o, acaso necesariamente, en una fórmula diversa, pero apuntando a un sentido semejante. Y después, algo que es ético, pero al mismo tiempo político, agregaría el imperativo de promover la extensión de los beneficios transformativos que tiene la IA a todos, no solamente a algunos”.

-Me quedé pensando en el inicio de la charla, esa relación con la ciencia ficción y el sentido de robot como esclavo. En esas obras, siempre el explotado en algún momento, dice “no”, “basta”. Jugando un poco con eso, ¿quién creés que puede rebelarse primero acá? ¿Será el ser humano o la IA la que diga que no o basta primero?

-Mi presunción es que de parte de la IA no llega ese no, esa negativa. A mí me parece que empieza a jugarse lo humano más íntimo, más radical, en el sentido de la capacidad de asimilación e incorporación de lo artificial dentro de las propias biografías. Va a parecer un momento en el que uno mismo, por saturación o en un caso extremo, dirá no, ya basta, no puedo. Lo que pensábamos como imperativos éticos o desafíos éticos tiende a no llegar a ese extremo, a exponer una suerte de diques, de barreras que todavía tienen en resguardo el potencial humano antes de su situación de superación.

Desde hace un tiempo, la IA está ya está modificando nuestras vidas diarias. Los planteos y los cuestionamientos se dan en pocos sectores, cuando el uso es por parte de todos. No nos preguntamos el cómo, pero la gran mayoría, sabiendo o no, provocamos el uso. Alguien dijo que el problema no es que la máquina llegue a ser más inteligente que nosotros, sino que deleguemos prematuramente responsabilidades. Debemos pensar cuáles son los problemas que esto plantea y que podemos hacer sobre ellos, así como se debe ir pensando cómo se enfrentarán esas consecuencias en materia social, económica, laboral e intelectual. Ambas cosas se ven en menor medida que el propio uso ya de la IA.