11 citas sobre IA que te harán pensar

Autor: Laura McKinney
Fecha De Creación: 3 Abril 2021
Fecha De Actualización: 26 Junio 2024
Anonim
11 citas sobre IA que te harán pensar - Tecnología
11 citas sobre IA que te harán pensar - Tecnología

Contenido


Fuente: Lin Shao Hua / Dreamstime.com

Para llevar:

El avance de la IA es inevitable, y lo que eso se traduce para la humanidad no está del todo claro. Algunos creen que podemos esperar un gran futuro, mientras que otros piensan que significa que estamos en el camino de ser reemplazados por nuestros señores robóticos. La tercera perspectiva es la que conoce los riesgos pero los considera manejables.

Escuchamos mucho sobre IA y su potencial transformador. Sin embargo, lo que eso significa para el futuro de la humanidad no está del todo claro. Algunos futuristas creen que la vida mejorará, mientras que otros piensan que está bajo una seria amenaza. También hay un espectro de posiciones en el medio. Aquí hay una serie de tomas de 11 expertos.

1. "De lejos, el mayor peligro de la Inteligencia Artificial es que las personas concluyan demasiado pronto que lo entienden". - Eliezer Yudkowsky


Esa es la primera oración del informe de 2002 de Yudkowsy titulado "La inteligencia artificial como factor positivo y negativo en el riesgo global" para el Instituto de Investigación de Inteligencia de Máquina (MIRI). Si bien el término AI no se usaba casi tanto como en la actualidad, sigue habiendo un problema de falta de comprensión sobre las capacidades y los límites de la tecnología. De hecho, en los últimos años, ha habido un mayor impulso para hacer que la IA no solo sea comprensible, sino explicable.

2. "Lo que es vital es hacer que todo lo relacionado con la IA sea explicable, justo, seguro y con linaje, lo que significa que cualquiera podría ver simplemente cómo se desarrolló cualquier aplicación de IA y por qué". - Ginni Rometty

El CEO de IBM hizo esa declaración durante su discurso de apertura en el CES el 9 de enero de 2019. El trasfondo de afirmar la necesidad de una IA explicable es que mantenerlo como una caja negra sellada hace que sea imposible verificar y corregir sesgos u otros problemas en la programación. IBM se ha puesto en el campo de trabajar para resolver este problema, no solo ofreciendo servicios informáticos para las empresas, sino también consultas para reducir el sesgo de aquellos que están construyendo sistemas de aprendizaje automático. (Obtenga más información sobre la IA explicable en AI tiene algunas explicaciones que hacer).


Sin errores, sin estrés: su guía paso a paso para crear software que cambie su vida sin destruir su vida

No puede mejorar sus habilidades de programación cuando a nadie le importa la calidad del software.

3. "El último buscador, que comprendería, ya sabes, exactamente lo que querías cuando escribiste una consulta, y te devolvería exactamente lo correcto, en Ciencias de la Computación A eso lo llamamos inteligencia artificial. Eso significa que sería inteligente, y estamos muy lejos de tener computadoras inteligentes ". - Página Larry

El cofundador y CEO de Google en ese momento dijo esto en noviembre de 2002 durante un segmento de PBS NewsHour titulado "Google: El motor de búsqueda que podría". El anfitrión abrió con una reflexión sobre la creciente popularidad de Google en el año en que el dialecto estadounidense La sociedad lo clasificó como el verbo más útil para ser utilizado, aunque tomaría unos años más para que sea reconocido por gente como Merriam-Webster. Pero incluso al principio, la compañía manifestó su interés en utilizar IA.

4. “Evite a TODA COSTA cualquier mención o implicación de la IA. La IA armada es probablemente uno de los temas más sensibilizados de la IA, si no el más. Esto es carne roja para los medios para encontrar todas las formas de dañar a Google ". - Fei Fei Li, un pionero de la inteligencia artificial en Google, en una reunión con colegas sobre la participación de la compañía en el Proyecto Maven

Google descubrió que ser un jugador importante en la IA puede tener un inconveniente. En julio de 2017, el Departamento de Defensa presentó sus objetivos para el Proyecto Maven. El Coronel del Cuerpo de Infantería de Marina, Drew Cukor, jefe del Equipo de funciones cruzadas de guerra algorítmica en la Dirección de Operaciones de Inteligencia, Vigilancia y Reconocimiento, Apoyo de los Guerreros de Guerra en la Oficina del Subsecretario de Defensa para la Inteligencia, habló sobre su objetivo declarado para el año: "Personas y las computadoras funcionarán simbióticamente para aumentar la capacidad de los sistemas de armas para detectar objetos ".

Google había sido socio en esta empresa, pero, como lo indica la cita anterior, a los empleados de Google no les gustó. Finalmente, la compañía sucumbió a la presión y en junio de 2018 anunció que no renovaría su contrato con el Departamento de Defensa. Como informó The Intercept:

Google enfrentó una presión creciente desde que Gizmodo y The Intercept revelaron el contrato en marzo. Casi una docena de empleados renunciaron en protesta, y varios miles firmaron una carta abierta declarando que "Google no debería estar en el negocio de la guerra". Más de 700 académicos también firmaron una carta exigiendo que "Google rescinda su contrato con el Departamento de Defensa, y que Google y su empresa matriz Alphabet se comprometen a no desarrollar tecnologías militares y a no utilizar los datos personales que recopilan para fines militares ".

5. "La inteligencia artificial alcanzará los niveles humanos alrededor de 2029. Siga más allá, por ejemplo, hasta 2045, habremos multiplicado la inteligencia, la inteligencia de máquina biológica humana de nuestra civilización mil millones de veces". - Ray Kurzweil

El futurista e inventor dijo esto en una entrevista de 2012 en la que habló sobre el logro de la inmortalidad a través de la potencia informática. Confirmó la cifra de "mil millones de veces" y lo explicó de la siguiente manera: "Ese es un cambio tan singular que tomamos prestada esta metáfora de la física y la llamamos singularidad, un cambio disruptivo profundo en la historia humana. Nuestro pensamiento se convertirá en un híbrido de pensamiento biológico y no biológico ”. Obviamente, él es uno de los futuristas optimistas, imaginando un cambio disruptivo que será de gran beneficio. Explicó además por qué cree que la inmortalidad está al alcance: “agregaremos más de un año cada año a su expectativa de vida restante, donde las arenas del tiempo se están agotando en lugar de agotarse, donde su expectativa de vida restante se extiende a medida que el tiempo pasa."

6. “El mayor beneficio de la llegada de la inteligencia artificial es que las IA ayudarán a definir la humanidad. Necesitamos IA para decirnos quiénes somos ". - Kevin Kelly

El cofundador de Wired escribió esta afirmación radical en su libro de 2016, "Lo inevitable: Comprender las 12 fuerzas tecnológicas que darán forma a nuestro futuro". Mientras imagina el surgimiento de la automatización y los trabajos asumidos por los robots, anticipa que allí habrá un ciclo repetido de negación, pero el progreso es inevitable y tendremos que adaptarnos en consecuencia. Como explicó en una entrevista con IBM: "A través de la inteligencia artificial, vamos a inventar muchos nuevos tipos de pensamiento que no existen biológicamente y que no son como el pensamiento humano", y el lado positivo de la nube informática que destaca es esto: "Por lo tanto, esta inteligencia no reemplaza el pensamiento humano, sino que lo aumenta".

7. "El riesgo real con la IA no es la malicia sino la competencia. UNA IA superinteligente será extremadamente bueno para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas. Probablemente no seas un malvado enemigo de las hormigas que pisa a las hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se inundará, una pena para las hormigas. No coloquemos a la humanidad en la posición de esas hormigas ". - Stephen Hawking

Esta cita data de principios de 2015. Fue la respuesta que Stephen Hawking ofreció durante una sesión de preguntas y respuestas de Reddit AMA (Ask Me Anything) a una pregunta de un maestro que quería saber cómo abordar ciertas preocupaciones de IA que surgen en sus clases, a saber, el siguiendo:

¿Cómo representaría sus propias creencias ante mi clase? ¿Son nuestros puntos de vista reconciliables? ¿Crees que mi hábito de descontar la "IA malvada" al estilo Terminator es ingenua? Y finalmente, ¿qué moral crees que debería reforzar a mis estudiantes interesados ​​en la IA?

Hawking muestra cierta preocupación por los posibles efectos destructivos de la IA en la humanidad, aunque parece creer que el riesgo se puede gestionar si lo planificamos, una opinión compartida por otros. (Para más información sobre esto, vea Por qué las IA superinteligentes no destruirán a los humanos en el corto plazo).

8. "Quieres saber qué tan súper inteligente cyborgs podría tratar a los humanos comunes de carne y hueso? Mejor comience investigando cómo los humanos tratan a sus primos animales menos inteligentes. No es una analogía perfecta, por supuesto, pero es el mejor arquetipo que podemos observar en lugar de solo imaginar ". - Yuval Noah Harari

El profesor Harari hizo ese pronunciamiento en su libro de 2017, "Homo Deus: A Brief History of Tomorrow". Su punto de vista es polos aparte del de los futuristas positivos al imaginar el surgimiento de lo que él llama dataismo en el que los humanos ceden el terreno superior para avanzar. inteligencia artificial. Estamos obligados a que la posición de las hormigas se inunde en la explicación de Hawking. Este es un futuro dominado por un omnipresente y omnisciente "sistema de procesamiento de datos cósmicos", y la resistencia es inútil.

9. "Debemos abordar, individual y colectivamente, las cuestiones morales y éticas planteadas por la investigación de vanguardia en inteligencia artificial y biotecnología, lo que permitirá una extensión significativa de la vida, bebés de diseño y extracción de memoria ". - Klaus Schwab

Schwab publicó sus pensamientos sobre la Cuarta Revolución Industrial en enero de 2016. Al igual que los futuristas positivos, imaginó que el futuro fusionará "los mundos físico, digital y biológico de una manera que transformará fundamentalmente a la humanidad". Pero no lo dio por sentado. que tal "transformación es positiva", instando a las personas a planificar con anticipación con conciencia de "los riesgos y las oportunidades que surgen en el camino".

10. "Mucho se ha escrito sobre el potencial de la IA para reflejar lo mejor y lo peor de la humanidad. Por ejemplo, hemos visto que la IA brinda conversación y consuelo a los solitarios; También hemos visto a AI participar en la discriminación racial. Sin embargo, el mayor daño que la IA puede causar a las personas a corto plazo es el desplazamiento del trabajo, ya que la cantidad de trabajo que podemos automatizar con la IA es mucho mayor que antes. Como líderes, nos corresponde a todos asegurarnos de que estamos construyendo un mundo en el que cada individuo tenga la oportunidad de prosperar ”. - Andrew Ng

Esta cita proviene de "Lo que la inteligencia artificial puede y no puede hacer en este momento", escribió el artículo Andrew Ng, líder fundador del equipo de Google Brain, ex director del Laboratorio de Inteligencia Artificial de Stanford, para Harvard Business Review en 2016 cuando fue el líder general del equipo de IA de Baidu. (En 2017 se convirtió en el fundador y director de Landing AI). Explica las capacidades y los límites de la IA como era entonces, y sigue siendo relevante hoy en día. Si bien Ng no está planteando un futuro distópico dominado por datos, sí está de acuerdo en que quienes lo desarrollan tienen la responsabilidad de aplicarlo de manera responsable con plena comprensión de sus consecuencias tanto intencionadas como no intencionadas.

11. "No hay razón ni forma en que una mente humana pueda seguir el ritmo de una máquina inteligente artificial para 2035". - Scott gris

Esta cita no está mal escrita, aunque se desvía de la forma en que la verás en cualquier otro lugar en línea porque siempre aparece como "No hay razón ni forma en que una mente humana pueda mantenerse al día con una máquina de inteligencia artificial para 2035". Aquí está el historia. Basado en qué tan atrás aparece en las fuentes digitales, probablemente se dijo en 2015. Sin embargo, no pude precisarlo a ninguna estafa en particular, incluso después de horas de búsqueda a través de videos de ese período. Entonces contacté al mismo Scott para preguntar por la fuente. Admitió: "No recuerdo cuándo fue la primera vez que dije esto o dónde estaba". Pero sí recordó su frase: "La cita siempre ha sido incorrecta. Debería leer "Inteligente artificial".