¿Por qué algunas compañías contemplan agregar 'controles de retroalimentación humana' a los sistemas modernos de IA? Presentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Autor: Roger Morrison
Fecha De Creación: 25 Septiembre 2021
Fecha De Actualización: 9 Mayo 2024
Anonim
¿Por qué algunas compañías contemplan agregar 'controles de retroalimentación humana' a los sistemas modernos de IA? Presentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnología
¿Por qué algunas compañías contemplan agregar 'controles de retroalimentación humana' a los sistemas modernos de IA? Presentado por: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnología

Contenido

Presentado por: AltaML



Q:

¿Por qué algunas empresas contemplan agregar "controles de retroalimentación humana" a los sistemas modernos de IA?

UNA:

Algunas compañías que trabajan con tecnología de IA de vanguardia están trabajando para instituir controles humanos para estos sistemas, dando a las herramientas de aprendizaje automático y aprendizaje profundo alguna supervisión humana directa. Estas compañías tampoco son jugadores pequeños: DeepMind de Google y OpenAI de Elon Musk son dos ejemplos de compañías importantes que están poniendo en práctica los avances en inteligencia artificial. Con eso en mente, los resultados difieren; por ejemplo, DeepMind ha sido objeto de controversia por su renuencia a proporcionar información clave al público, mientras que OpenAI es mucho más, bueno, abierto sobre su trabajo en el control de la inteligencia artificial.


Incluso notables como Bill Gates han intervenido en el tema, Gates dice que es uno de los muchos que están preocupados por el surgimiento de una superinteligencia artificial que de alguna manera puede ir más allá del control humano. Musk, por su parte, también ha presentado un lenguaje alarmante sobre la posibilidad de una "IA deshonesta".

Esa es probablemente la razón más urgente por la que las empresas están trabajando para aplicar controles humanos a la IA: la idea de que alguna singularidad tecnológica dará como resultado una tecnología sensible súper poderosa que los humanos simplemente ya no pueden controlar. Desde los albores de las ambiciones humanas, hemos implementado herramientas para asegurarnos de que podemos controlar los poderes que ejercemos, ya sean caballos con riendas y arneses, electricidad en cables aislados o cualquier otro tipo de mecanismo de control. El control es una función innatamente humana, por lo que tiene todo el sentido del mundo que a medida que la inteligencia artificial se acerca a la funcionalidad real, los humanos aplican sus propios controles directos para mantener ese poder bajo control.


Sin embargo, el miedo a los robots superinteligentes no es la única razón por la que las empresas aplican controles humanos al aprendizaje automático y los proyectos de inteligencia artificial. Otra razón importante es el sesgo de la máquina: esta es la idea de que los sistemas de inteligencia artificial a menudo están limitados en la forma en que evalúan los datos en cuestión, por lo que amplifican cualquier sesgo inherente al sistema. La mayoría de los profesionales que se ocupan del aprendizaje automático pueden contar historias de horror sobre los sistemas de TI que no pudieron tratar a los grupos de usuarios humanos por igual, ya sea por disparidad de género o étnica, o alguna otra falla del sistema para comprender realmente los matices de nuestras sociedades humanas y Cómo interactuamos con las personas.

En cierto sentido, podríamos poner controles humanos en los sistemas porque tememos que sean demasiado poderosos, o alternativamente, porque tememos que no sean lo suficientemente poderosos. Los controles humanos ayudan a orientar los conjuntos de datos de aprendizaje automático para proporcionar más precisión. Ayudan a reforzar las ideas que la computadora simplemente no puede aprender por sí sola, ya sea porque el modelo no es lo suficientemente sofisticado, porque la IA no ha avanzado lo suficiente o porque algunas cosas simplemente están en la provincia de la cognición humana. La inteligencia artificial es excelente para algunas cosas, por ejemplo, un sistema basado en recompensas y puntajes permitió que una inteligencia artificial venciera a un jugador humano en el inmensamente complejo juego de mesa "Go", pero para otras cosas, este sistema basado en incentivos es totalmente inadecuado

En pocas palabras, existen numerosas razones convincentes para mantener a los usuarios humanos directamente involucrados en el funcionamiento de los proyectos de inteligencia artificial. Incluso las mejores tecnologías de inteligencia artificial pueden pensar mucho por sí mismas, pero sin un cerebro humano biológico real que pueda procesar cosas como las emociones y las costumbres sociales, simplemente no pueden ver el panorama general de una manera humana.

Una empresa especializada en aprendizaje automático puede ayudar a lograr este equilibrio con una combinación de expertos empresariales y expertos en la materia y los desarrolladores de aprendizaje automático con las habilidades para resolver problemas de grandes empresas.