¿Por qué los AI superinteligentes no destruirán a los humanos en el corto plazo?

Autor: Roger Morrison
Fecha De Creación: 1 Septiembre 2021
Fecha De Actualización: 1 Mes De Julio 2024
Anonim
¿Por qué los AI superinteligentes no destruirán a los humanos en el corto plazo? - Tecnología
¿Por qué los AI superinteligentes no destruirán a los humanos en el corto plazo? - Tecnología

Contenido


Fuente: Willyambradberry / Dreamstime.com

Para llevar:

A pesar de la gran ciencia ficción que ha inspirado, los expertos explican que la IA probablemente no nos amenazará directamente en términos de supremacía mental.

Si está prestando atención a lo que la gente está hablando en el espacio tecnológico, es posible que haya escuchado alguna versión de las preocupaciones de Elon Musk, Bill Gates y otros sobre las tecnologías de inteligencia artificial superinteligentes, aunque los informes recientes muestran que Gates se ha enfriado un poco en todas esas cosas de Cassandra, todavía hay abundante preocupación y razonamiento detrás de esto.

Las preguntas abundan: ¿los robots se volverán más inteligentes que los humanos? ¿La IA se hará cargo de nuestros trabajos y nuestras vidas? ¿Comenzará la tecnología a controlar a los humanos y los problemas con la IA mal utilizada conducirán a la violencia y la destrucción?


Para muchos expertos, la respuesta es un rotundo "no" basado en las formas reales en que estamos desarrollando las tecnologías actuales. La mayoría estaría de acuerdo en que necesitamos marcos éticos y explicables para dirigir las tecnologías de IA y ML, pero no están de acuerdo en que los señores de los robots sean un resultado determinado.

Veamos algunos de los debates en torno a la superinteligencia y veamos por qué muchos tecnólogos confían en que los humanos aún tendrán las riendas en un par de cientos de años.

Los humanos toman la delantera

Cuando nos fijamos en los informes sobre las preocupaciones de AI, un nombre que aparece bastante es Grady Booch. Booch fue pionero en el lenguaje de modelado unificado (UML) y trabajó en tecnologías clave para IBM a principios del milenio.

Una charla TED de Booch ilustra parte de su optimismo sobre los tipos de IA que solíamos pensar como ciencia ficción.


Primero, argumenta, el entrenamiento humano reflejará su propia ética y normas en el funcionamiento de los sistemas de IA.

"Si quiero crear un asistente legal artificialmente inteligente, le enseñaré un corpus de leyes, pero al mismo tiempo estoy fusionando con él el sentido de misericordia y justicia que es parte de esa ley", dice Booch. "En términos científicos, esto es lo que llamamos la verdad básica, y aquí está el punto importante: al producir estas máquinas, por lo tanto, les estamos enseñando un sentido de nuestros valores. Con ese fin, confío en una inteligencia artificial igual, si no más, como un humano que está bien entrenado ”. (Para más información sobre el futuro (y el pasado) de la IA, consulte Thinking Machines: The Artificial Intelligence Debate).

Sin errores, sin estrés: su guía paso a paso para crear software que cambie su vida sin destruir su vida

No puede mejorar sus habilidades de programación cuando a nadie le importa la calidad del software.

Más adelante en la charla, Booch plantea otro argumento muy diferente de por qué no debemos temer una adquisición por parte de las tecnologías.

"(Una amenaza existencial para la humanidad por la tecnología) tendría que ser con una superinteligencia", dice Booch. “Tendría que tener dominio sobre todo nuestro mundo. Este es el material de Skynet de la película "The Terminator", en la que tuvimos una superinteligencia que comandaba la voluntad humana, que dirigía cada dispositivo que estaba en cada rincón del mundo. Prácticamente hablando, no va a suceder. No estamos construyendo IA que controlen el clima, que dirijan las mareas, que nos manden humanos caprichosos y caóticos. Y además, si existiera tal inteligencia artificial, tendría que competir con las economías humanas y, por lo tanto, competir por los recursos con nosotros ... al final (no se lo digas a Siri), siempre podemos desconectarlos ".

Nuestros cerebros, nuestros cuerpos

Otro argumento importante para la supremacía de la cognición humana sobre la tecnología está relacionado con la exploración del cerebro humano.

Si vas a YouTube y escuchas al difunto ingeniero Marvin Minsky, uno de los primeros pioneros de ML y un ejemplo para Ray Kurzweil y otros gurús de la IA de hoy, puedes escucharlo hablar sobre el cerebro humano. Minsky enfatiza que la inteligencia humana real no es una supercomputadora poderosa, sino cientos de computadoras diferentes interconectadas de manera compleja. La IA, explica, puede replicar algunas de esas máquinas, pero no está cerca de replicarlas todas.

Para muchos expertos en tecnología, la IA nunca podrá imitar verdaderamente la complejidad del cerebro humano y, por lo tanto, siempre será menos poderosa por naturaleza.

"Las IA generalmente no están diseñadas para sobrevivir, sino para resolver problemas muy específicos y centrados en la persona, como jugar al ajedrez", escribió Luc Claustres, Ph.D. al final del año pasado. "Como tales, ni siquiera pueden adaptarse a cambios leves en su entorno sin reprogramarlos, mientras que los humanos manejan la imprecisión o cambian las reglas fácilmente sobre sí mismos".

AI e intuición

También hay un argumento corolario que se basa en lo que podríamos llamar el "problema de la guardia de cruce": expone los límites de lo que puede hacer la inteligencia artificial. AI y ML son excelentes para extraer información de un conjunto diverso de datos, pero no son buenos para la intuición, algo por lo que los humanos son conocidos. En otras palabras, si contrataste una computadora como guardia de cruce, podrías tener alguna funcionalidad, pero probablemente tendrías algunos vacíos bastante peligrosos, ¡en los que no confiarías a tus hijos! (Para más información sobre el potencial de la IA para el pensamiento humano, vea ¿Se puede implementar la creatividad en la IA?)

Como tal, los programas de computadora no pueden entender nuestras peculiaridades e idiosincrasias humanas en la forma en que nos comunicamos y en la forma en que vivimos, por lo que esa es otra limitación clave.

Para obtener más información sobre por qué las preocupaciones de superinteligencia pueden exagerarse, un artículo de Wired el año pasado de Kevin Kelly analiza algunos supuestos que tendrían que ser ciertos para que la IA realmente se haga cargo de cualquier manera práctica. Estos incluyen lo siguiente:

  • Esa inteligencia artificial ya está dominando la cognición humana
  • Esa inteligencia puede expandirse sin límite
  • Esa súper inteligencia puede resolver la mayoría de los problemas que enfrentan los humanos

Al leer el artículo, verá todos estos supuestos explotados y tratados para mostrar, nuevamente, por qué la cognición humana es tan especial.

No es que la tecnología no se vuelva poderosa, lo hará. Se trata de todas las diferentes dimensiones que deben dominarse para que la IA sea más poderosa que los humanos. Los humanos evolucionaron durante millones y millones de años: la inteligencia artificial ha existido durante aproximadamente 20 años, y aunque ha hecho enormes avances, los humanos aún tienen la ventaja, y probablemente lo harán para siempre.

Si vuelve a leer algunos de estos enlaces y mira lo que la gente decía, lo que realmente debería preocuparnos más es de nosotros mismos. Existe un gran potencial para que los humanos usen mal la tecnología; de hecho, muchos de nosotros diríamos que ya usamos mal muchas de las tecnologías que tenemos. Entonces, ese puede ser realmente un mejor lugar para poner la ansiedad y la acción de uno cuando se trata de crear una IA ética.