Sábado 23 de Noviembre de 2024

TECNO

28 de marzo de 2023

¿Qué tan inteligente es la Inteligencia Artificial?

Robots asesinos, computadoras que capturaban naves…el cine y la literatura nos presentaron a la Inteligencia Artificial (IA) como un peligro para la humanidad. Pero el reciente surgimiento de ChatGPT nos muestra que hay otra cara de la IA: una oportunidad para resolver nuevas situaciones, un auxiliar en el trabajo, entre otras cosas. Sin embargo, sigue vigente el temor de que las máquinas reemplacen a las personas. Por eso nos preguntamos...¿qué tan inteligente es la Inteligencia Artificial?

Por Ricardo Goldberger, Red Argentina de Periodismo Científico Ilustración: Pablo Blasberg.
En marzo de 1968, la unidad multitrónica M-5 se apropió del Enterprise en Viaje a las Estrellas. Ese mismo año, en abril, HAL 9000 capturó la nave Discovery One y mató a uno de sus tripulantes en 2001: Odisea del Espacio. La saga de les Skywalkers no hubiese sido la misma si en La Guerra de las Galaxias de 1977 no nos hubieran presentado a R2D2 y C3PO. Más adelante en el tiempo, en octubre de 1984, Skynet nos envió del futuro a T-800, Terminator.

Estos son algunos pocos de los ejemplos en los que el cine y la TV nos mostraban cómo actuaba la IA. Y ni hablemos de la literatura de ciencia (y no tan) ficción.

La Fundación del Español Urgente (Fundéu RAE), con el apoyo de la Agencia EFE y la Real Academia Española, nombraron a "Inteligencia Artificial" como término o expresión del año 2022.

“Esta construcción está definida en el diccionario académico como disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico” figura en el sitio web de la fundación y agrega que esta expresión apareció en el diccionario de la RAE en 1992.

Digamos también que no hay una Inteligencia Artificial (IA) sino que es un conjunto de tecnologías que reciben nombres como Aprendizaje Automático (AM), Aprendizaje Profundo (AD), Procesamiento del Lenguaje Natural (PLN) o Generación del Lenguaje Natural (GNL), esta última la que está detrás de ChatGPT, un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo.

 

Télam-Confiar le preguntó a Diego Fernández Slezak, profesor del Departamento de Computación de la Facultad de Ciencias Exactas de la UBA e investigador del Conicet, si se podía considerar a ChatGPT como un punto de inflexión: “Si vos me preguntabas en 2017 si íbamos a tener algo tipo ChatGPT yo te hubiese respondido falta mucho, décadas. Cinco años después llega, entonces yo no sé si diría que es un punto de inflexión algo que estaba previsto que apareciera. Pero sí que se aceleró mucho más y lo que yo creí que iba a tardar 20 años en llegar, llegó en 5.”

Por su parte, Andrés Bursztyn, vicedecano y director de Ingeniería en Sistemas de la UTN Seccional Buenos Aires, es más tajante: “Considero que OpenAI, con su solución ChatGPT, se encuentra en un grado de avance significativo, pero que presenta cierta controversia y no representa un punto de inflexión en lo general, más bien en lo particular. Es decir, en muchos aspectos debe seguir mejorando y en otros, interpela en tener que modificar ciertas costumbres o paradigmas que se vienen utilizando hace mucho tiempo”.

De la misma manera coincide Sebastian Sardiña, director del laboratorio de IA en el Royal Melbourne Institute of Technology, Australia, afirma: “No me atrevo a juzgar si será un punto de inflexión. En el pasado se ha exagerado mucho el impacto a corto plazo de varias tecnologías y minimizado el impacto a largo plazo, desde la TV hasta Internet. Quizás esté sucediendo algo similar con ChatGPT. Sí me parece altamente probable que este tipo de tecnología terminará estableciéndose, a largo plazo, como una muy poderosa herramienta de ayuda, como lo son hoy las calculadoras, los programas matemáticos sofisticados, o planillas de cálculo.”

 

Ilustración: Pablo Blasberg.


Quien discrepa de todo lo que hemos leído hasta ahora es Carlos Chesñevar, director del Instituto de Ciencias e Ingeniería de la Computación (ICIC), dependiente del Conicet y la Universidad Nacional del Sur, Bahía Blanca: “Indudablemente ChatGPT causó una gran conmoción en la sociedad por su viralización. Este chat de la empresa OpenAI alcanzó un millón de usuarios a los cinco días de ser lanzado (algo que al mismísimo Facebook le llevó unos diez meses), y ha despertado muchas expectativas e interrogantes a nivel internacional”. 

Y agrega: “ChatGPT sorprende por la extraordinaria versatilidad y capacidad de ‘sorpresa’ que nos generan las respuestas.  Seguramente será un punto de inflexión en lo que respecta a la diseminación de la IA en la sociedad, y representa un desafío para muchos procesos y actividades que típicamente se asocian a ‘inteligencia humana’”. 

 

El estado del arte


En 2018, Google fue una de las primeras compañías en publicar sus Principios de la Inteligencia Artificial, y en establecer límites para las aplicaciones que no se desarrollarán. “Estos principios orientan las decisiones en materia de investigación, diseño y desarrollo de productos, así como las formas de resolver los desafíos operativos, de diseño y de ingeniería. Sin embargo, no son reglas estancas, evolucionan al igual que lo hace la tecnología” refiere Tamar Colodenco, Gerente de Políticas Públicas en Google Argentina.

Según Sardiña, “hoy en día la IA ya está funcionando en un montón de temas bien específicos, donde los algoritmos tienen igual o mejor performance que los humanos. Google Photos permite reconocer nuestras caras y muchos objetos como pelotas, autos, o playas. Netflix nos recomienda películas o series que nos pueden gustar. Facebook nos segmenta los posts a aquellos que muy probablemente nos pueda interesar, mientras Google Maps nos arma una ruta para viajar desde donde nos encontramos a la casa de una amiga.”

Alejandro Artopoulos es director académico del Centro de Innovación Pedagógica de la Universidad de San Andrés, profesor en la Maestría en Política y Gestión de la Ciencia y la Tecnología en la Facultad de Ciencias Económicas y está investigando el uso de la IA en educación y agro.

 


“Hay una empresa que lo que hace es mapear el terreno para ver dónde están los yuyos, y con una válvula aplican el herbicida en forma focalizada, o sea, en vez de tirar herbicida por todos lados, con inteligencia artificial, apuntan con el herbicida a cada yuyo, entonces con eso se ahorran un montón de insumos, o sea se baja notablemente la cantidad y se contamina mucho menos por eso el hazte con la agricultura digital está asociada con soluciones sustentables”, dice Artopoulos.

Guillermo Treister, ejecutivo de ventas de aplicaciones de Inteligencia Artificial de IBM Latinoamérica, agrega: “Yo creo que hoy estamos en el estadio evolutivo en que estamos perfeccionando nuestro reconocimiento de emociones, mejorando como expresarlas por así decirlo. Hoy cada vez con más precisión se puede entender mucho más de un contexto. Antes esos sistemas se basaban mucho en la presencia de alguna palabra clave, que tenía algún carácter positivo o negativo, algún carácter reforzando una idea o que estaba de acuerdo con una idea, pero era más que nada búsqueda de palabras. Hoy el desarrollo de todas estas tecnologías de entendimiento del lenguaje natural, hicieron que se pueda entender mucho más el contexto.”

 

La ética de la IA

“Lo bueno de la inteligencia artificial -continúa Treister- es que tiene una aplicabilidad en todo lo que a uno se le ocurra. Hay un mar de ideas que hoy tenemos que buscar donde sacarle provecho, dónde puede hacer nuestra vida más fácil, dónde puede hacer nuestra vida mejor, cómo tomar mejores decisiones para que tenga un impacto más grande y la vida de todo el mundo sea mejor.”

Pero Bursztyn advierte: “Debemos ser responsables de las consecuencias de su utilización. Antes de aplicar inteligencia artificial en algunas soluciones, debe responder a todas las preguntas básicas: qué, cuándo, cómo, dónde, porqué, para qué, y las más importante: ética profesional en la toma de decisiones en hechos concretos, respetando leyes, costumbres sociales y confort humano”.

Lo mismo hace Chesñevar: “También es importante notar que ya están surgiendo varios planteos en relación a la propiedad intelectual y cuestiones de plagio potencial asociadas a estas herramientas como ChatGPT y similares.  Los sistemas educativos se enfrentarán al desafío de repensar algunas modalidades de evaluación con sus alumnos, a fin de evitar que ‘copien y peguen’ respuestas brindadas por ChatGPT.”

Por eso Colodenco recuerda los principios que Google se asignó a sí misma y a la IA: “Ser socialmente beneficiosa, evitar crear o reforzar sesgos injustos, estar construida y probada ser segura, ser responsable con las personas, incorporar principios de diseño de privacidad, mantener altos estándares de excelencia científica y estar disponible para usos acordes con estos principios.”
De todos modos, Slezak nos alivia del peor temor: ¿puede la IA eliminar puestos de trabajo? “Yo tiendo a pensar que se van a transformar todos los trabajos, pero no hacerlos desaparecer, sino a encontrar nuevas formas de uso y de generar nuevos puestos de trabajo”.

Aparentemente el futuro no es de la IA sino con la IA.
 

COMPARTIR: