Home

Mostrando entradas con la etiqueta Supermáquinas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Supermáquinas. Mostrar todas las entradas

lunes, 2 de febrero de 2015

La clonación de qubits: Una nueva forma de conversar en la Computación Cuántica.

La computación cuántica representa un reino infinito de posibilidades cuando se trata de tamizar y clasificar a través de increíbles cantidades de datos. No es un desafío menor si tenemos en cuenta que un informe de 2013 encontró que el 90 por ciento de los  datos del mundo fueron generados en sólo dos años. 

Pero uno de los problemas más complejos de la computación cuántica no es la gran cantidad de datos -es una cuestión de traducción.

"La programación de los ordenadores tradicionales es como un idioma extranjero a los ordenadores cuánticos", explicó Steve Adachi, un investigador senior en Lockheed Martin en Palo Alto, California, que ha estado explorando este campo durante cuatro años. "Las computadoras cuánticas requieren un enfoque totalmente diferente a la programación."

domingo, 2 de junio de 2013

Los nuevos controles sobre el Qubit (Quantum Bit o Bit Cuántico) son una excelente esperanza para el futuro de la computación cuántica.

Las computadoras cuánticas serían exponencialmente más rápidas que los ordenadores más potentes de hoy en día.

"Nuestro experimento es un ensayo general para un tipo de proceso esencial para la computación cuántica", dijo Michel Devoret, el profesor de Física, y Física Aplicada de la Universidad de Yale. Y Frederick William Beinecke, el investigador principal sobre este tema, publicada el 11 de enero en la revista Science, dijo: "Lo que este experimento realmente permite una comprensión activa de la mecánica cuántica. Una cosa es mirar a una fórmula teórica y otra cosa es ser capaz de controlar un objeto cuántico real. "

En los sistemas cuánticos, las unidades microscópicas llamadas qubits representan la mínima unidad de información cuántica. Los qubits pueden tomar cualquiera de los dos estados - "0" o "1" - o ambos a la vez. Es muy importante y necesario, para la computación cuántica, el reconocer estos estados correctamente, interpretarlos debidamente y hacerles un seguimiento constante. Sin embargo, el acto mismo de su seguimiento, por lo general, altera la información del contenido de un qbit.

sábado, 1 de junio de 2013

Se rompe la barrera del millón de núcleos en la Supercomputación

Los investigadores del Centro de Investigación de Turbulencia consiguieron un récord en cuanto a la supercomputación, valiéndose de un millón de núcleos de computación para modelar el ruido de los aviones supersónicos. El trabajo se realiza con el sistema BlueGene / Q IBM Sequoia, recién instalado en el Lawrence Livermore National Laboratories.

El Stanford Engineering Center para la Investigación de Turbulencia  (CTR) ha establecido un nuevo hito en la ciencia computacional, usando con total éxito, un supercomputador con más de un millón de núcleos de computación, con el propósito de resolver un complejo problema de dinámica de fluidos y la también sobre la predicción del ruido generado por un motor de jet supersónico.

Joseph Nichols, investigador del centro, trabajó en el flamante sistema de Bluegene / Q IBM Sequoia recién instalado en el Lawrence Livermore National Laboratories (LLNL), financiado por el Programa de la Administración Nacional de Seguridad Nuclear (NNSA) Simulación Avanzada y Computación (ASC). 

jueves, 8 de diciembre de 2011

Singularidad Tecnológica.


Singularidad Tecnológica. (Fuentes citadas al final)
La singularidad tecnológica se daría en un hipotético punto a partir del cual, una civilización tecnológica, estaría frente a una aceleración tal, de su progreso tecnológico, que provocaría una incapacidad (de dicha civilización) para predecir sus consecuencias. ¿que pasaría si los humanos creásemos una maquina mas inteligente que los humanos mismos?. 

La futurología (que según l
a Organización para la Cooperación y el Desarrollo Económicos (OCDE) la define como el conjunto de tentativas sistemáticas para observar e integrar a largo plazo el futuro de la ciencia, la tecnología, la economía y la sociedad con el propósito de identificar las tecnologías emergentes que probablemente produzcan los mayores beneficios económicos o sociales)
define a la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) como un evento futuro en el que se predice que el progreso tecnológico y el cambio social acelerarán debido al desarrollo de inteligencia "super humana", cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho evento se ha nombrado así por analogía con la singularidad gravitacional observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función. 


Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos: 

sábado, 18 de octubre de 2008

Supercomputación, la Fórmula 1 de la Informática

Al igual que en el mundo del motor, la informática es un sector que necesita un banco de pruebas en donde se lleven a cabo experiencias reales muy exigentes. La Supercomputación es el tejido ideal para ello dado que supone la ejecución de complejos programas de cálculo científico que requieren de las mayores prestaciones en informática.

El sector de la supercomputación, también llamado cálculo científico o HPC (high performance computing) abarca los centros de proceso de datos tanto públicos como privados y que dan servicio a entidades investigadoras, Universidades y proyectos de iniciativa privada.

Es un segmento de mercado de pequeño valor porcentual respecto a toda la informática, pero es de importancia capital para los fabricantes de hardware y software. La Supercomputación tiene un valor crítico y estratégico. Los avances en la supercomputación de hoy se convertirán en avances de la informática comercial del mañana.

Centrándonos en las tecnologías de supercomputación, se crea un ciclo continuo de innovación que permite la evolución de las tecnologías de la información. En las últimas décadas, las arquitecturas de servidores y redes así como el empleo de Internet han sido previamente empleados y optimizados en HPC y su empleo masivo ha llegado posteriormente con el éxito conocido de todos.

Actualmente se emplean los llamados Superordenadores en casi todas las áreas investigación científica, en meteorología, exploración de hidrocarburos, defensa e industria automovilística y aeroespacial. Pero poco a poco se extiende el ámbito a otras aplicaciones, por ejemplo, recientemente las entidades dedicadas al mercado de capitales también emplean estas supermáquinas para analizar el comportamiento de productos financieros.

Muchas empresas y organismos públicos se ven influenciadas en mayor o menor medida por este segmento de la tecnología informática. A raíz de avances informáticos se han llegado incluso a crear nuevos subsectores empresariales como el de la Biotecnología que congrega empresas de todo el mundo en torno a la investigación en genética y proteomica, llevados a cabo por superordenadores o redes internacionales de cálculo bioinformático.

Las tendencias tecnológicas de este sector se centran en la compartición de recursos informáticos. Dado lo elevado de las inversiones necesarias en infraestructuras (los centros actuales contienen miles y decenas de miles de procesadores) se intenta interconectar los CPD’s entre sí en las denominadas GRID o redes de intercambio de servicios de computación.

Además se implantan ordenadores estándares (siempre más económicos y fáciles de mantener) en los llamados clusters o granjas de servidores, que corren normalmente con software abierto sobre sistema operativo LINUX, ampliamente conocido por los profesionales del sector y con costes muy bajos. Con estos sistemas informáticos se abordan los retos de crecimiento continuo (escalabilidad) así como la flexibilidad y manejabilidad que se requieren para adaptarse a los distintos proyectos de investigación actuales.

Aunque los ordenadores actuales son muy rápidos y potentes, manejando fluidamente grandes volúmenes de datos a través de redes de comunicaciones de última generación, la realidad es que aún queda mucho por mejorar puesto que los científicos abordan desafíos hasta ahora impensables, el llamado “gran challenge application” o aplicaciones software para las cuales todavía no se ha construido el superordenador capaz de soportarlo. Ello obliga a la industria informática y de telecomunicaciones a una continua innovación y a grandes inversiones en nuevos materiales y dispositivos que al final beneficiarán a toda la comunidad de usuarios informáticos.

Grandes fabricantes ponen en marcha programas de colaboración con entidades científicas de todo el mundo, con financiación cruzada y con transferencia de tecnología de forma que se puedan abordar retos muy significativos. En España, proyectos como ORIGENES, destinado a desvelar el origen de la vida, o iniciativas en BioInformática y Proteomica así como en ciencias medioambientales, son un ejemplo de los acuerdos llevados a cabo con centros de investigación públicos y en donde participan científicos con ingenieros de los laboratorios de las corporaciones multinacionales de informática.

Una completa y sólida infraestructura de cálculo impulsa proyectos de la empresa privada con recursos locales. Es fundamental la inversión en I+D para no quedarse en la cola del mundo civilizado, es fundamental por tanto disponer también de algunos buenos F1 informáticos.

(Fuente: http://www.tendencias21.net/supercomputacion/index.php?action=article&id_article=694510)

Estimados lectores, como siempre espero sus comentarios sobre estas innovaciones detalladas arriba.
Related Posts Plugin for WordPress, Blogger...

ENTRADAS MAS POPULARES

ÚLTIMAS PUBLICACIONES

Recibe todas las actualizaciones de este blog. Sólo haz clic en el botón Me Gusta de Facebook.

Muchas gracias!!!

Powered By | Blog Gadgets Via Blogger Widgets