Con un gran progreso viene una gran responsabilidad

Autor: Roger Morrison
Fecha De Creación: 27 Septiembre 2021
Fecha De Actualización: 1 Mes De Julio 2024
Anonim
Importante el valor de la responsabilidad ...
Video: Importante el valor de la responsabilidad ...

Contenido


Fuente: Mike2focus / Dreamstime.com

Para llevar:

El consumo de medios está evolucionando junto con los avances tecnológicos como la inteligencia artificial (IA). Si bien generalmente aceptamos el progreso, también debemos ser conscientes de las desventajas de algunas formas de tecnología. La capacidad de la IA tiene un lado oscuro cuando se usa para promocionar noticias falsas.

El lado oscuro de la tecnología fue uno de los temas explorados en la segunda conferencia Machines + Media de NYC Media Lab, que fue patrocinada y organizada por Bloomberg en su sede global en la ciudad el 15 de mayo. Aunque algunas de las sesiones se centraron más en analizar qué tecnología Actualmente está disponible para los medios de comunicación, incluso aquellos que traen la sombra de la manipulación y la desinformación.

Una buena historia es más convincente que toda la verdad

En la sesión titulada "Estado del arte", Gilad Lotan, vicepresidente, jefe de ciencia de datos, Buzzfeed, señaló que el problema de las noticias falsas o engañosas no puede atribuirse únicamente a las compañías de medios o las nuevas tecnologías. "La gente no necesariamente busca hechos", dijo. "Los lectores quieren historias".


Agregó que alimentar ese deseo de historias y narraciones favorecidas puede dar como resultado noticias falsas que son "más manipulación que información falsa". De hecho, la historia entregada puede no incluir nada falso. Lo que es falso es que los hechos reportados son seleccionados y eliminados de la "estafa" más grande para llevar a los "lectores a una conclusión".

En la misma línea, en la sesión "Plataforma + Medios", Kelly Born, de la Iniciativa de Democracia de Estados Unidos de la Fundación William y Flora Hewlett, dijo: "A la gente le gustan las noticias que refuerzan sus creencias, y especialmente si desencadena la indignación". Advirtió que la capitalización de los medios esa tendencia puede conducir a una "tormenta perfecta" que saca lo peor de nosotros. Esto se ve exacerbado por la posibilidad de presentaciones completamente fabricadas.


¿Ver todavía creer?

La tecnología juega un papel en contar la historia a través de imágenes y videos. Por lo general, creemos lo que vemos a menos que haya signos obvios de manipulación. Sin embargo, a medida que la IA mejora el realismo de los videos falsos, ahora es posible literalmente poner palabras en la boca de figuras públicas. (La IA no solo se usa con fines nefastos. Eche un vistazo a algunos constructivos en 5 maneras en que las empresas pueden querer considerar el uso de la IA).

El peligro de la producción de videos muy creíbles por parte de AI se demostró en la sesión titulada "Soluciones para el lado oscuro de los medios impulsados ​​por máquinas". Comenzó con un video con Barack Obama diciendo cosas que el ex presidente nunca dijo en realidad. El movimiento todavía estaba ligeramente fuera de sincronía con las palabras, por lo que tiene algunas marcas de un video falso, y la mayoría de la audiencia dijo que podían reconocerlo como falso.

Que la manipulación de video de Obama no logró el realismo de resucitar a Peter Cushing como Grand Moff Tarkin para "Rogue One". Como explicó un artículo del New York Times, el efecto se logró al hacer que un actor usara "materiales de captura de movimiento en la cabeza" mientras está frente a la cámara "para que su rostro pueda ser reemplazado por una recreación digital de Cushing". El director creativo de la película / supervisor senior de efectos visuales, lo llamó "una versión de hacer de alta tecnología y trabajo intensivo". maquillaje."

Falsificaciones indetectables

Ahora, gracias a los avances de la IA, específicamente a las redes de confrontación generativa (GAN), es más fácil que nunca lograr efectos mágicos de películas. Utilizando GAN, un sistema de IA refina el metraje hasta que sea lo suficientemente bueno como para ser aceptado como real por un sistema de IA diseñado para detectar falsificaciones.

Sin errores, sin estrés: su guía paso a paso para crear software que cambie su vida sin destruir su vida

No puede mejorar sus habilidades de programación cuando a nadie le importa la calidad del software.

En este video, puede ver que los investigadores demuestran cómo un actor puede dirigir los movimientos de la cara de una figura pública para producir cualquier expresión y pronunciamiento con el nivel de fidelidad que generalmente no se encuentra en los videos manipulados.

Si bien no todas las personas que juegan con videos tienen un sistema de este tipo disponible en la actualidad, el software estará al alcance de más personas en un futuro muy cercano.

Posibles consecuencias

Dhruv Ghulati, fundador y CEO, Factmata, dice que está "muy preocupado" acerca de cómo se podría aplicar esta capacidad para poner no solo las caras de los líderes mundiales sino también de los CEO y las celebridades en videos como prueba de lo que dicen o hacen cosas que no han hecho. . Los poderes destructivos del video se intensificarían al lograr un efecto viral de las botnets.

Significa que "ya no podemos confiar en nuestros ojos mentirosos", declaró Mor Naaman, profesor asociado de ciencias de la información, Cornell Tech. Le preocupaba que eso condujera a una pérdida de confianza.

Otros están preocupados por avivar las llamas de la violencia. Ya "los videos ligeramente modificados" se "usan para causar violencia en el mundo en desarrollo", observó Aviv Ovadya, tecnólogo jefe del Centro para la Responsabilidad de las Redes Sociales. (Las redes sociales pueden ser una forma efectiva de difundir información falsa. Consulte los 4 trucos de alimentación más devastadores).

Sarah Hudson, socia de Investing in US, expresó su preocupación porque las imágenes manipuladas "a escala" representan "una amenaza increíble para la seguridad pública".

Planificación proactiva

Es imperativo "prevenir la mayor cantidad posible de ese abuso", dijo Ovadya. Por eso es importante "pensar con anticipación mientras se desarrolla la tecnología" sobre "cómo mitigar los efectos negativos" y "dedicar recursos para abordar esas consecuencias no deseadas".

Es imposible retrasar el avance del progreso, pero lo que tenemos que hacer es asegurarnos de que la dirección que tomamos esté pensada y planificada. Eso significa no solo trabajar en tecnología para ver qué se puede hacer, sino pensar en lo que se puede hacer que se debe evitar.

El camino a seguir para la innovación tecnológica es pensar en cuáles pueden ser los efectos y planificar salvaguardas antes de que se materialicen los peligros. Para hacerlo, necesitaremos la cooperación entre los investigadores, las empresas de tecnología y las agencias gubernamentales para establecer estándares y mejores prácticas a las que las personas se adherirán. Eso debería ser una prioridad para todos los interesados.