Excientífico de Google advierte sobre los peligros de la inteligencia artificial

Redacción Central, 09 May. 23 (ACI Prensa).-
Un destacado investigador de inteligencia artificial (IA), al que algunos llaman el “padrino” de la IA, hace notar que esta tecnología se está desarrollando a un ritmo “aterrador” y advierte que no debería expandirse más allá de nuestra capacidad para controlarla.

Geoffrey Hinton, un investigador de larga data en Google, recientemente jubilado a los 75 años, se sumó a los que apuntan, entre ellos el Papa Francisco, que los peligros potenciales de la nueva tecnología merecen un examen profundo.

En declaraciones a BBC News, Hinton indicó que un software como el sistema de chatbot GPT-4, desarrollado por la empresa OpenAI de San Francisco, “eclipsa a una persona en la cantidad de conocimiento general que posee, y la eclipsa por mucho”.

“En términos de razonamiento, no es tan bueno, pero ya realiza un razonamiento simple. Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido. Así que tenemos que preocuparnos por ello”, señaló.

GPT-4 es un modelo de aprendizaje entrenado con enormes cantidades de datos y textos históricos y contemporáneos escritos por humanos. Puede producir textos por sí mismo y generar publicaciones de blogs, poemas y programas de computadora. También puede entablar conversaciones similares a las humanas y responder preguntas, como informa el New York Times. 

Sin embargo, estos sistemas aún se encuentran en las primeras etapas de desarrollo y muestran varios defectos: a pesar de hablar con confianza, GPT-4 presenta información incorrecta como un hecho e inventa información en incidentes que los investigadores llaman “alucinaciones”.

Sistemas similares pueden generar audio convincente e imágenes y videos de estilo fotorrealista, a veces modelados a partir de personas reales.

En la actualidad, estas primeras versiones de inteligencia artificial carecen de autoconciencia. Existe un debate sobre si la autoconciencia es incluso posible para una creación digital.

Hinton, que ahora vive en Canadá, fue pionero en la creación y diseño de “redes neuronales”, el tipo de infraestructura de programación que ayuda a las computadoras a aprender nuevas habilidades y formas de análisis. Se utiliza en muchos sistemas de IA. Él y dos colaboradores ganaron el máximo galardón de la computación, el Premio Turing, en 2018.

En el análisis de Hinton, estos sistemas de IA en desarrollo son muy diferentes del software que la gente está acostumbrada a usar. 

“Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos” los humanos. “Es como si tuvieras 10.000 personas, y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona”, sostuvo.

Para Hinton, un escenario de “pesadilla” sería el desarrollo de un robot al que se le dé la capacidad de crear sus propios objetivos secundarios, y entonces decida que su objetivo sea la maximización de su propio poder. 

¿Cuáles son los riesgos de la inteligencia artificial?

Otros investigadores han expresado su preocupación de que estos sistemas de IA presenten riesgos a corto, mediano y largo plazo. Los peligros iniciales incluyen a personas que confían erróneamente en desinformación más efectiva y más convincente, incluida información falsa presentada de manera verosímil por una IA. Los bromistas y los delincuentes pueden crear llamadas telefónicas falsas con la imitación de la voz de un familiar que dice estar en peligro y necesita dinero rápidamente.

Recientemente, el Papa Francisco fue objeto de una fotografía falsa generada por computadora. Una imagen del Pontífice con un elegante abrigo blanco se volvió viral en las redes sociales y muchas personas parecían confundirla con una instantánea auténtica.

Si la IA automatiza con éxito más tareas que actualmente realizan las personas, el desempleo podría convertirse en un problema, temen algunos. Los moderadores de contenido de Internet, los asistentes legales, los asistentes personales y los traductores podrían ver sus trabajos bajo presión o reemplazados, como señala el New York Times.

Los riesgos a largo plazo, como los sistemas de inteligencia artificial que escapan del control humano e incluso destruyen a la humanidad, han sido durante mucho tiempo un elemento básico de la ciencia ficción. 

Algunos expertos citan el comportamiento inesperado de los sistemas de IA que se están desarrollando actualmente. Si estos se interconectan con otros servicios de Internet y se vuelven tan poderosos que pueden escribir su propio código para automodificarse, la IA fuera de control podría convertirse en un peligro real.

El Papa Francisco y otros católicos se pronuncian

En una audiencia en el Vaticano el 27 de marzo, el Papa Francisco indicó que la ciencia y la tecnología tienen beneficios prácticos y son una evidencia de la capacidad del hombre “para participar responsablemente en la acción creativa de Dios”.

En su discurso, el Santo Padre señaló que “la tecnología es de gran ayuda para la humanidad” y que “el desarrollo de la inteligencia artificial y del aprendizaje automático tiene el potencial de aportar una contribución beneficiosa al futuro de la humanidad”.

Sin embargo, advirtió que “este potencial sólo se hará realidad si existe una voluntad coherente por parte de quienes desarrollan las tecnologías de actuar de forma ética y responsable”.

Los comentarios se produjeron en una audiencia con participantes en los Diálogos de Minerva, una reunión de científicos, ingenieros, líderes empresariales, abogados, filósofos, teólogos católicos, especialistas en ética y miembros de la Curia romana centrada en las tecnologías digitales.

El Santo Padre alentó a estos líderes a hacer “de la dignidad intrínseca de todo hombre y mujer el criterio clave para evaluar las tecnologías”.

El Papa Francisco señaló que daba la bienvenida a la regulación de la inteligencia artificial para que pueda contribuir a un mundo mejor. También comentó que le tranquiliza saber que muchas personas que trabajan en nuevas tecnologías ponen en el centro la ética, el bien común y la persona humana. 

Asimismo, expresó su preocupación de que las tecnologías digitales están aumentando la desigualdad mundial y reduciendo a la persona humana.

El Pontífice enfatizó: “El valor fundamental de una persona no puede medirse con un conjunto de datos”. 

También advirtió que en los procesos de toma de decisiones sociales y económicas “debemos ser cautelosos a la hora de confiar juicios a algoritmos que procesan datos recogidos sobre los individuos y sus características y comportamientos pasados”.

“No podemos permitir que los algoritmos limiten o condicionen el respeto a la dignidad humana, ni que excluyan la compasión, la misericordia, el perdón y, sobre todo, la apertura a la esperanza de cambio en el individuo”, precisó.  

En la asamblea de 2020 de la Academia Pontificia para la Vida, los miembros de la academia se unieron a los presidentes de IBM y Microsoft para firmar un documento que pide el uso ético y responsable de las tecnologías de inteligencia artificial.

El documento se centró en la ética de los algoritmos y el uso ético de la inteligencia artificial según los principios de transparencia, inclusión, responsabilidad, imparcialidad, confiabilidad, seguridad y privacidad.

Traducido y adaptado por ACI Prensa. Publicado originalmente en CNA.

 

Comparte en tus redes
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad