El rol y los alcances de la Inteligencia Artificial, bajo la mirada de una experta

Así como Nietzsche señaló la muerte de Dios con la llegada de la Ilustración y el uso de la Razón, la Inteligencia Artificial plantea la posibilidad de crear máquinas que superen la inteligencia de cualquier humano conocido. ¿Es la IA una entidad realmente todopoderosa que puede reemplazarnos?

Por Sol Ucci*

El ser humano, desde la Prehistoria, siempre ha necesitado de artefactos para tomar decisiones, para resolver problemas, para pensar el mundo. Somos seres incapaces de vivir sin técnicas.

Desde Alan Turing con su artículo ¿Pueden pensar las máquinas? e Isaac Asimov con Yo, Robot, ambos publicados en 1950, la idea de la tecnología como una entidad independiente y suprahumana se consideró una posibilidad. Aquello que se pensaba que era puramente humano, como producir lenguaje generativo, responder chats, escribir poemas o novelas, hoy se delega cada vez más a la automatización.

Toda inteligencia es artificial

En un mundo donde el humano se percibe como el único ser inteligente, el único “animal racional”, la pregunta sobre si es posible crear inteligencia abre un debate de límites controversiales. La profesora de Filosofía Ángela Menchón, Mag. en Políticas Educativas, aclara que los humanos siempre nos hemos vinculado con el mundo de manera tecnológica artefactual, lo que implica que nuestra inteligencia no es natural, sino que está mediada por artefactos.

Por otro lado, atribuir características humanas a las máquinas, lejos de humanizarlas, las enaltece. Las máquinas son programadas por seres humanos. El diseño de la Inteligencia Artificial (IA) involucra operaciones cognitivo-conceptuales a través de las cuales se deciden los métodos, patrones y datos que se aprehenden para generar un modelo de realidad que le permite al sistema realizar las acciones apropiadas.

“Así es como los chats generativos nos devuelven todo lo que nosotros subimos a la red y lo que hacen es recombinarlo -explica Menchón-. Son como una especie de espejo de lo que nosotros producimos ahí”.

Sin embargo, la docente e investigadora remarca que es de vital relevancia distinguir si se trata del mismo tipo de producción: “Vos podés leer un poema, una novela o ver una imagen hecha por una máquina. La diferencia es que las máquinas no tienen experiencia, esas imágenes no son frutos de una experiencia transformadora”.

De esto se desprende un gran interrogante ético sobre para qué queremos máquinas, qué queremos que hagan por nosotros y qué es lo que realmente podemos delegar. Entre posturas tecnófilas y tecnófobas, encontramos miles de respuestas. Por un lado, la corriente transhumanista sostiene la idea de la Singularidad. La IA como complemento del ser humano que le permite volverse pura conciencia y trascender las limitaciones del cuerpo material.

“Yo prefiero pensar que somos una humanidad 4.0”, desarrolla la especialista. No puede volverse a un estadío pre-internet romantizado ni tampoco pensar en una apocalipsis tecnológica. Así como la imprenta cambió la humanidad, Internet también y se vive un proceso de digitalización de la realidad.

La IA se equivoca, es humana

Si la IA no existe más allá de lo humano y se retroalimenta de los datos que nosotros mismos cargamos en la web, ¿es concebible pensar que cometa errores? En un debate sobre la relación de la IA con la verdad, o la posverdad, Menchón explica que el algoritmo, al entrenarse sobre una realidad que ya es sesgada por el propio hecho de ser subjetiva, promueve la proliferación de información falsa. Fake newsdeep fakestrolls son síntomas de un mismo malestar.

El problema de la libre circulación de información en las redes oculta una problemática doble. En un sistema que parece democrático porque todos pueden opinar y hacer valer su voz, todo llega por igual y no hay regulación. Es una democracia bastante peligrosa con fundamentos epistemológicos confusos. “La democracia también tiene que ver con que la gente pueda recibir una formación científica válida”, argumenta la investigadora.

Las redes justamente orbitan en esas zonas grises, en la indiferenciación de todo. Cuando no hay institución, no hay ponderación de la información. Todo coexiste y circula en espacios donde no hay institucionalidad. Según Menchón, la institución y la educación, al igual que los medios de comunicación, deberían ofrecer dispositivos de análisis crítico. Hoy más que nunca, se necesitan grandes antiparras para atravesar un profundo mar de fakes.

La caverna algorítmica

El problema ético es a quién favorecen las tecnologías, quiénes son los dueños y quiénes controlan esos algoritmos de los que dependemos tanto. La información falsa es altamente contagiosa, se propaga tan fácilmente cuando confirma sesgos. ¿Qué importa la esencia si la apariencia coincide con mi verdad?

Siglos de filosofía platónica y la pregunta por "el ser versus el parecer" sigue en pie. La nueva caverna algorítmica crea una opinión pública muy desconfiada, pero a la vez muy crédula. Desconfiada de aquello que no dice lo que se quiere escuchar. Así, se configura un mundo de individuos que están autocentrados, conectados burbujísticamente solamente con los que piensan como ellos, que del otro solo esperan confirmación.

Según la investigadora, en una atmósfera altamente digitalizada, todas nuestras actividades están mediadas por plataformas. A partir del escándalo de Cambridge Analytica y la venta de miles de datos desde Facebook para influir en las elecciones estadounidenses, algunos autores hablan de trabajo no remunerado de los usuarios en la web. Menchón explica: “Estamos todo el tiempo metiéndonos en páginas, buscando información, poniendo likes, toda esa información que producimos es la mano de obra para las plataformas”.

La inteligencia artificial hoy es parte de un entramado de lógicas de poder que buscan ser generadoras de opinión, de subjetividad, de votos. Kate Crawford, en su libro Atlas de la inteligencia artificial (2023), desarrolla que la IA es extractivista en tres sentidos. Primero, porque representa una herramienta que posibilita la minería de datos, es decir, toma datos sin consentimiento o con un consentimiento indirecto. Segundo, porque requiere de recurso humano que trabaja, en gran medida explotado, para aquello que parece automático. Y, por último, porque presupone la manipulación de los recursos naturales como agua, litio y minerales. Todo una sistematización concreta y anclada materialmente para una concepción abstracta y hasta independiente de la IA.

Pienso, así sobrevivo

“Vivimos como en un tecnofeudalismo -analiza la investigadora-. Somos como los siervos de los feudos, nadie nos obliga a estar ahí pero tampoco podemos salir, porque si salimos nos quedamos afuera de todo”.

Infocracia es el concepto que acuñó el filósofo y ensayista surcoreano Byung-Chul Han para describir cómo funcionan las sociedades actuales. En el régimen informativo, el poder no es disciplinario. No es necesario el panóptico foucaultiano para vigilar y castigar. Hoy, la dominación se efectiviza ante la transparencia. Las personas abogan por visibilidad en el régimen de la información y esa apariencia de claridad y libertad es su condición de posibilidad.

En un universo desfactificado, las noticias llegan antes que su confirmación, por lo tanto, el poder y el saber se aúnan en la verdad pero también en las fakes. Estas son, ante todo, información que desinforma. En esta misma línea, la especialista vaticina: “Corremos el riesgo de convertirnos en democracias que se transformen en brazos institucionales de los grandes poderes económicos”.

Luz

La guía básica para sobrevivir: pensar y filosofar. Ojo, tampoco caigamos en los extremos. Tal vez, la IA no es exactamente el problema. Si soñáramos con un mundo igualitario, más justo, más informado, seguramente ese mundo necesitaría de la tecnología. Una tecnología regulada de otra forma, con otras dinámicas, otros mecanismos.

Algunos creen que la legislación estatal sobre las entidades privadas dueñas de estas plataformas digitales puede ser una posible solución. En definitiva, normativizar la gobernanza algorítmica, una idea que engloba un amplio espectro de prácticas sociotécnicas que se proponen ordenar y regular lo social a través de la vigilancia policial predictiva, la gestión laboral, la moderación de contenidos. La realidad, sin embargo, es que la regulación depende del contexto social, económico y político regional.

Sin embargo, podría pensarse a la Filosofía como una herramienta para iluminar eso que se nos escapa. Su función es mostrarnos el entramado más complejo, político, económico, ético, cultural en el que nuestras prácticas tecnológicas cotidianas se desenvuelven.

Quizás es cuestión de preguntarnos si queremos una era donde las máquinas hagan cosas por o para nosotros, con qué regulaciones y a qué costo. Cuestionarnos la necesidad intrínseca del ser humano de atribuirle humanidad a algo exterior, a buscar respuestas metafísicas; entender por qué somos así de humanos, demasiado humanos, como dice Nietzsche.

*Artículo elaborado por Sol Ucci, estudiante de la Licenciatura en Comunicación Social de la Universidad Nacional de La Matanza (UNLaM), en el marco de la cátedra de Periodismo Científico de Gráfica IV.