Por: Fernando Lira Flores *
INTELIGENCIA ARTIFICIAL. OPORTUNIDAD O RIESGO…
Hoy, en este artículo del Ser y la Nada, les saludo, y espero y deseo que se encuentren bien.
He leído y escuchado, las declaraciones vertidas por Elon Musk (empresario, inversionista y ante todo magnate) más recientes; así como lo indicado por el (lingüista, filósofo, politólogo) Noam Chomsky, y me han causado cierta inquietud o ruido -sin ser silvestre en mi expresión-
Así, que decidí investigar el trasfondo de estas declaraciones y realizar una abstracción personal al respecto, la cual les comparto el día de hoy en este artículo del Ser y la Nada; y determinar bajo qué contexto se comenta que la inteligencia artificial puede ser un riesgo para la humanidad.
Continuamos…
Leyendo e investigando al respecto de este tópico, encontré un artículo arbitrado que trata muy a fin la inteligencia artificial.
En el artículo “Artificial intelligence and robotics: its social, ethical and legal dilemmas, la autora argentina Adriana Margarita Porcelli (2020), indica -como antecedentes-, que McCarthy, Minsky, Rochester y Shannon iniciaran en Dartmouth College en Estados Unidos, el proyecto de investigación “Inteligencia Artificial”, cuyo objetivo era que la AI, describiera la inteligencia humana y la emulara.
Porcelli (2020), vincula a la inteligencia artificial con las propuestas de Chomsky, que había desarrollado su retórica denominada la “gramática generativa”; una teoría del lenguaje inspirada en los lenguajes artificiales de la lógica y las matemáticas. Esta teoría se basa en que, conforme a un número finito de reglas, se podía generar los infinitos enunciados de una lengua. Y respecto de esto, el filósofo no estaba ajeno.
Entonces, Chomsky conocía los alcances de esto y ahora realiza una opinión al respecto, indicando, grosso modo que: los usos de programas como ChatGPT pueden ser útiles en algunos campos “limitados” como la programación computacional o “sugiriendo rimas para versos ligeros”, pero sus profundas discrepancias con los humanos en el razonamiento y en el uso del lenguaje presumen “limitaciones significativas sobre lo que pueden hacer esos programas”. -Interesante- Valdría la pena leer entre líneas este comentario.
Por su parte el magnate Elon Musk, en un artículo publicado por el Economista (2023) el 30 de marzo de este año, se indicaba que “hay que hacer una pausa de 6 meses en la investigación sobre inteligencias artificiales (AI) y más potentes que ChatGPT 4”.
Según el Economista (2023), Musk agregó que -los laboratorios de inteligencia artificial están actualmente atrapados en una “carrera fuera de control” para desarrollar e implementar sistemas de aprendizaje automático “que nadie, ni siquiera sus creadores, pueden entender, predecir, ni controlar”-.
Valdría la pena cuestionarse lo siguiente: ¿Por qué 2 connotados en sus áreas respectivas, temen o se contradicen respecto de la AI?; si uno de ellos apoyó con su teoría los algoritmos que han generado esta, y el otro con sus negocios digitales busca controlarla.
Sera porque: ¿Habrá pérdida de empleos?, ¿Se generará incertidumbre sobre sus efectos a largo plazo? ¿Hay desconfianza hacia esta tecnología?
O bien, vislumbrando el ámbito educativo, podríamos hacer algunas analogías al respecto como:
Si se automatizan los trabajos educativos ¿qué pasará? ¿El alumno aprenderá menos, o aprenderá a investigar? -esto sería un inconveniente- y ¿por qué y para quién?
¿Se generará dependencia a la tecnología de la AI? ¿Limitaría la capacidad de los estudiantes o la ampliaría? ¿Mejoraría su forma de investigar para resolver problemas por medio de diversas fuentes de información?
O, ¿Pudiera haber sesgo en los algoritmos de aprendizaje automático? Esto, ¿podría perpetuar la desigualdad en la educación o aminorarla? ¿Se podría generar un sesgo de datos para los estudiantes?
Nota: se entenderá por sesgo, grosso modo-, la manifestación de los valores humanos que están implicados en la categorización y recolección de datos usados para entrenar al propio algoritmo de la AI
Y desde un personal punto de vista, -a mi leal y saber entender-, se cuestiona la réplica de la inteligencia humana, que como indica Chomsky el aprendizaje automático y otras formas de AI están diseñados para efectuar objetivos específicos y no pueden responder la complejidad y la riqueza de la mente humana.
Estimados lectores, les dejo con las siguientes preguntas: ¿Debemos escuchar lo que ellos dicen? ¿O, debemos probar la AI para saber en qué consiste y sus pormenores?
Hasta el siguiente comentario del Ser y la Nada.
*Administrador de Baldemart y Asociados S.C. y docente desde bachillerato hasta posgrados en diversas instituciones educativas públicas y privadas.
Referencias:
El Economista México 20 marzo 2023, “Elon Musk y cientos de expertos piden frenar la inteligencia artificial por “grandes riesgos” para la humanidad” Revisado en: https://eleconomista.com.ar/tech/elon-musk-cientos-expertos-piden-frenar-inteligencia-artificial-grandes-riesgos-humanidad-n60992
Forbes, México. Forbes Staff (2023): Chomsky alaba avances en IA, pero advierte de sus peligros y su ‘amoralidad 8 marzo 2023’ Revisado en: https://www.forbes.com.mx/chomsky-alaba-avances-en-ia-pero-advierte-de-sus-peligros-y-su-amoralidad/
Porcelli, A.M. (2020) “Artificial intelligence and robotics: its social, ethical and legal dilemmas. Revisado en: https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2448-51362020000300049