¿Por qué es importante que los científicos de datos busquen transparencia? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Autor: Laura McKinney
Fecha De Creación: 4 Abril 2021
Fecha De Actualización: 16 Mayo 2024
Anonim
¿Por qué es importante que los científicos de datos busquen transparencia? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnología
¿Por qué es importante que los científicos de datos busquen transparencia? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Tecnología

Contenido

Q:

¿Por qué es importante que los científicos de datos busquen transparencia?


UNA:

La transparencia es esencialmente importante en proyectos de ciencia de datos y programas de aprendizaje automático, en parte debido a la complejidad y sofisticación que los impulsa, porque estos programas están "aprendiendo" (generando resultados probabilísticos) en lugar de seguir instrucciones de programación lineal predeterminadas, y porque, como resultado, Puede ser difícil entender cómo la tecnología está llegando a conclusiones. El problema del "recuadro negro" de los algoritmos de aprendizaje automático que no son completamente explicables para los responsables humanos es importante en este campo.

Con eso en mente, ser capaz de dominar el aprendizaje automático explicable o la "IA explicable" probablemente será un enfoque principal en cómo las empresas buscan la adquisición de talento para un científico de datos. Ya DARPA, la institución que nos trajo a internet, está financiando un estudio multimillonario en IA explicable, tratando de promover las habilidades y recursos necesarios para crear tecnologías de aprendizaje automático e inteligencia artificial que sean transparentes para los humanos.


Una forma de pensarlo es que a menudo hay una "etapa de alfabetización" de desarrollo de talentos y una "etapa de hiperlfabetización". Para un científico de datos, la etapa de alfabetización tradicional sería saber cómo armar programas de aprendizaje automático y cómo construir algoritmos con lenguajes como Python; cómo construir redes neuronales y trabajar con ellas. La etapa de hiperlfabetismo sería la capacidad de dominar la IA explicable, proporcionar transparencia en el uso de algoritmos de aprendizaje automático y preservar la transparencia a medida que estos programas trabajan hacia sus objetivos y los objetivos de sus manejadores.

Otra forma de explicar la importancia de la transparencia en la ciencia de datos es que los conjuntos de datos que se utilizan se vuelven cada vez más sofisticados y, por lo tanto, potencialmente más intrusivos en la vida de las personas. Otro motor importante del aprendizaje automático explicable y la ciencia de datos es el Reglamento general europeo de protección de datos que se implementó recientemente para tratar de frenar el uso poco ético de datos personales. Utilizando el GDPR como un caso de prueba, los expertos pueden ver cómo la necesidad de explicar los proyectos de ciencia de datos se ajusta a las preocupaciones de privacidad y seguridad, así como a la ética empresarial.