La advertencia de un doctor en matemáticas: "El límite de la Inteligencia Artificial lo vamos a poner los humanos"
En AbcRadio entrevistamos a Gabriel Soto, doctor en matemáticas y docente de la UNPSJB, respecto al uso y los riesgos de la inteligencia artificial. "Las IA son herramientas, que uno no le puede adjudicar un valor ético o moral, sino que son los usuarios los que van a definir si esa tecnología es buena o mala", aseguró.
En AbcRadio entrevistamos al doctor en matemáticas y docente de la UNPSJB, Gabriel Soto, en relación a un tema de gran repercusión en el último tiempo, el uso de la Inteligencia Artificial.
Sobre ello, Soto indicó: "Uso cotidianamente inteligencia artificial. Es algo que está en el mundo científico hace muchos años. En la década del ‘40 se crearon los primeros modelos matemáticos para representar la actividad neuronal".
"Se postula que las neuronas son como compuertas lógicas, se busca replicar algunas de las operaciones que realiza el cerebro, dando origen a lo que en el área se llama ‘machine learning' (aprendizaje de máquina)", agregó.
En el mismo sentido, comentó que "en la década del ‘60 aparece la primera neurona artificial, un trabajo que se llamó perceptrón. Ésta neurona hacía muy bien el trabajo de clasificación, y resolver estos problemas con IA automática".
"En particular la inteligencia artificial lo que hace es usar la arquitectura neuronal como modelo de aprendizaje", aseguró.
Al ser consultado sobre los riesgos en el incremento del uso de esta tecnología, y si de alguna forma podría reemplazar al ser humano, fue contundente: "El límite de la Inteligencia Artificial lo vamos a poner los humanos".
"Por ejemplo, si volvemos a pensar en las reacciones nucleares, el uso de esa tecnología siempre está mediada por el ser humano. El alcance que le vamos a dar a la inteligencia artificial respecto de si nos va a reemplazar o no, va a depender de quienes tomemos las decisiones, que seguimos siendo los seres humanos", sentenció.
Asimismo, puntualizó que "las IA son herramientas, que uno no le puede adjudicar un valor ético o moral, sino que son los usuarios los que van a definir si esa tecnología es buena o mala. Así como la fisión nuclear uno la puede pensar respecto a sus bondades o sus cosas malas, con la IA pasa lo mismo".
Huella de carbono
Por otro lado, el especialista se refirió al impacto en el medio ambiente, provocado por el uso de esta tecnología. "Cuando pensamos en la nube (almacenaje de información en la red), en realidad son conjuntos de computadoras que están consumiendo energía. Imprimiendo una huella significativa en el ambiente, esto es un ejemplo de donde vamos a poner el límite", advirtió.
"La información de ChatGPT está en la nube, pero esa nube es física, y lo que hace la IA es aprender, se va modificando en función de lo que le dice el usuario. La diferencia, es que la información que tienen estas redes neuronales, es impensable que una persona la tenga en la cabeza", concluyó.