Por qué la computación cuántica puede ser la próxima vuelta en la autopista Big Data

Autor: Judy Howell
Fecha De Creación: 27 Mes De Julio 2021
Fecha De Actualización: 11 Mayo 2024
Anonim
Por qué la computación cuántica puede ser la próxima vuelta en la autopista Big Data - Tecnología
Por qué la computación cuántica puede ser la próxima vuelta en la autopista Big Data - Tecnología

Contenido


Fuente: Krishnacreations / Dreamstime.com

Para llevar:

La tecnología informática ha progresado en el mismo camino durante décadas, pero la computación cuántica es una gran desviación de lo que vino antes.

El 28 de septiembre de 2012, el New York Times publicó una historia, "Los australianos surgen en busca de una nueva clase de computadora", sobre lo que parece ser un gran avance en la carrera para construir una computadora cuántica que funcione.

Si bien la definición de una computadora cuántica aludirá a muchos lectores, basta con decir que una computadora cuántica en funcionamiento será revolucionaria en el mundo de la tecnología.

La tecnología informática subyace a los cambios en el mundo que hemos experimentado en los últimos 50 años: la economía global, Internet, la fotografía digital, la robótica, los teléfonos inteligentes y el comercio electrónico dependen de las computadoras. Es importante entonces, creo, que tengamos una comprensión básica de la tecnología para comprender a dónde nos puede llevar la computación cuántica.


Al principio, había ENIAC

Entonces, comencemos por el principio. La primera computadora electrónica que funcionaba era el integrador numérico electrónico y la computadora, más comúnmente conocida como ENIAC. Fue desarrollado en la Facultad de Ingeniería Moore de la Universidad de Pensilvania con fondos del Ejército de EE. UU. Para calcular las trayectorias de artillería en la Segunda Guerra Mundial. (Además de ser una maravilla de la ingeniería, el ENIAC abrió el camino para muchos proyectos importantes de TI en los años posteriores, pero ya era demasiado tarde para la Segunda Guerra Mundial, que terminó antes de que se completara la computadora).

El corazón de la capacidad de procesamiento de ENIAC eran los tubos de vacío, 17.468 de ellos. Debido a que un tubo de vacío tiene solo dos estados: apagado y encendido (también conocido como 0/1), las computadoras adoptaron la aritmética binaria, en lugar de la aritmética decimal, donde los valores van de 0 a 9. Cada una de estas representaciones individuales se llama un bit, abreviatura de "dígito binario". (Para obtener más información sobre la historia de ENIAC, consulte The Women of ENIAC: Programming Pioneers).


Obviamente, era necesario que hubiera alguna forma de representar los números, letras y símbolos con los que estamos familiarizados, por lo que un esquema de codificación propuesto por el American National Standards Institute (ANSI), conocido como American Standard Character Information Interchange (ASCII), finalmente se convirtió en el estándar. Bajo ASCII, combinamos 8 bits para formar un carácter, o byte, bajo un esquema predeterminado. Hay 256 combinaciones que representan números, letras mayúsculas, letras minúsculas y caracteres especiales.

¿Confuso? No se preocupe por eso: el usuario promedio de la computadora no necesita conocer los detalles. Aquí se presenta solo como un bloque de construcción.

Luego, las computadoras progresaron bastante rápido desde los tubos de vacío a los transistores (William Shockley y su equipo de Bell Labs ganaron el Premio Nobel por el desarrollo de transistores) y luego la capacidad de colocar múltiples transistores en un chip para crear circuitos integrados. No pasó mucho tiempo antes de que estos circuitos incluyeran miles o incluso millones de transistores en un chip, lo que se denominó integración a gran escala. Estas categorías: 1) tubos de vacío, 2) transistores, 3) circuitos integrados y 4) VLSI se consideran las cuatro generaciones de desarrollo de hardware, sin importar cuántos transistores se puedan atascar en un chip.

Sin errores, sin estrés: su guía paso a paso para crear software que cambie su vida sin destruir su vida

No puede mejorar sus habilidades de programación cuando a nadie le importa la calidad del software.

En el tiempo transcurrido desde que ENIAC "entró en funcionamiento" en 1946 y durante todas estas generaciones, el uso subyacente de la aritmética binaria basada en tubos de vacío se ha mantenido en su lugar. La computación cuántica representa una ruptura radical de esta metodología.

Computación cuántica: la gran ruptura

Las computadoras cuánticas aprovechan el poder de los átomos y las moléculas para procesar y realizar tareas de memoria a una velocidad mucho más rápida que una computadora basada en silicio ... al menos en teoría. Aunque hay algunas computadoras cuánticas básicas capaces de realizar cálculos específicos, es probable que todavía falten varios años para un modelo práctico. Pero si surgen, podrían cambiar drásticamente la potencia de procesamiento de las computadoras.

Como resultado de este poder, la computación cuántica tiene el poder de mejorar en gran medida el procesamiento de grandes datos porque, al menos en teoría, debería sobresalir en el procesamiento masivamente paralelo de datos no estructurados.

Las computadoras han seguido con el procesamiento binario por una razón: realmente no había razón para jugar con algo que funcionó. Después de todo, las velocidades de procesamiento de la computadora se han duplicado cada 18 meses a dos años. En 1965, el vicepresidente de Intel, Gordon Moore, escribió un documento que detallaba lo que se conoció como la ley de Moore, en el que afirmó que la densidad de los procesadores se duplicaría cada dos años, lo que daría como resultado una duplicación de la velocidad de procesamiento. Aunque había escrito que predijo que esta tendencia duraría 10 años, notablemente ha continuado hasta nuestros días. (Ha habido algunos pioneros en informática que han roto el molde binario. Obtenga más información en ¿Por qué no en computadoras ternarias?)

Pero el aumento en la velocidad de procesamiento ha estado lejos de ser el único factor en el rendimiento mejorado de la computadora. Las mejoras en la tecnología de almacenamiento y el advenimiento de las telecomunicaciones han sido casi de igual importancia. En los primeros días de las computadoras personales, los disquetes contenían 140,000 caracteres y el primer disco duro que compré tenía 10 millones de caracteres. (También me costó $ 5,500 y era tan grande como una computadora de escritorio). Afortunadamente, el almacenamiento se ha vuelto mucho más grande en capacidad, más pequeño en tamaño, más rápido en la velocidad de transferencia y mucho, mucho más barato.

El gran aumento de la capacidad nos permite recopilar información en áreas en las que anteriormente solo podíamos arañar la superficie o incluso no profundizar en absoluto. Esto incluye temas con muchos datos, como el clima, la genética, la lingüística, la simulación científica y la investigación en salud, entre muchos otros.

Dando sentido a Big Data

Cada vez más, los exploits de big data están descubriendo que a pesar de todas las ganancias en potencia de procesamiento que hemos logrado, simplemente no es suficiente. Si vamos a poder dar sentido a esta gran cantidad de datos que estamos acumulando, necesitaremos nuevas formas de analizarla y presentarla, así como computadoras más rápidas para procesarla. Las computadoras cuánticas pueden no estar listas para la acción, pero los expertos han estado observando cada una de sus progresiones como el siguiente nivel de potencia de procesamiento de la computadora. No podemos decir con certeza, pero el próximo gran cambio en la tecnología informática podría ser una desviación real de los chips de silicio que nos han llevado hasta ahora.