Últimos 10 avances científicos y tecnológicos

September 30, 2017 | Autor: J. Talavera Agram... | Categoría: Physics
Share Embed


Descripción

Últimos 10 avances científicos y tecnológicos
Publicado el Mar 25, 2013(50) Comentarios
Avisos Google
Cirugia Laser Ojos
Con Láser Excimer Lasik Corrige tu Visión, Contáctanos! www.toplaser.com.pe
Cursos Gratuitos De Ingles
Te Presentamos la Nueva Forma de Aprender Inglés a tu Manera www.ganandoconingles.com
iStockphoto/Thinkstock
Repasemos los últimos 10 avances científicos y tecnológicos que han surgido recientemente de los laboratorios y los principales centros de investigación científica del mundo. Muchos de estos avances ya se encuentran entre nosotros día a día, otros los veremos próximamente. Esta es, a nuestro entender, la lista de los principales 10 avances de la ciencia y la tecnología de los últimos tiempos:
Avances científicos y tecnológicos
Energía solar: Si bien es algo de lo que hace tiempo venimos escuchando, lo cierto es que cada vez hay más fabricantes de paneles solares, lo que ha abaratado los costes para los compradores. Sin embargo, el principal problema es que hay muchísima oferta y no tanta demanda, por lo que algunas empresas de paneles solares se encuentran al borde de la quiebra y no implementan las nuevas tecnologías para una fabricación y funcionalidad mejor.
Educación por Internet: Ya hace unos años un tímido entorno virtual para estudiantes, donde los profesores colocaban materiales y fechas de exámenes, hacía más fácil la tarea de estudiar. Hoy en día, universidades de primer nivel como Stanford o Harvard ofrecen hacer cursos y carreras de forma virtual, con conferencias por streaming, materiales escritos y audiovisuales y tutorías personalizadas según el idioma, la capacidad de aprendizaje e incluso la cultura.

Cambios en la energía nuclear: Recientemente se han presentado unos nuevos reactores más rápidos, que tienen numerosos beneficios. Por ejemplo, sólo necesitarán el 2% del sitio que utilizaba un reactor original para almacenar el combustible gastado, reducen el tiempo que los residuos deben ser almacenados de 300.000 años a 300.
Electrónica epidérmica: Con el avance de la electrónica flexible, se plantea imprimir directamente sobre la piel diversos dispositivos, para que las personas puedan utilizarlos durante largas temporadas, principalmente para tener un correcto control médico.
Nueva terapia contra el cáncer: Este tratamiento utiliza la terapia génica para inducir una respuesta inmune al cáncer. Se utilizan células del propio cuerpo para hacer copias adicionales de la hormona que regula esa respuesta contra el cáncer. Pero esta molécula es muy peligrosa, por lo que el paso más importante era controlar sus niveles, lo que se ha conseguido mediante una pastilla.
Discos duros más potentes: Empresas fabricantes de discos duros plantean que la nano impresión puede ser útil para duplicar la potencia de los discos duros.

Baterías más ecológicas: Finalmente se está comercializando una batería recargable metal-aire que reemplaza el diesel y la combinación plomo-ácido. Tienen más capacidad que las baterías de litio y también son más baratas.
Pantallas de celulares de zafiro: Este material es muchísimo más barato que el cristal de los teléfonos de hoy en día, es menos sensible y no se raya.
Smartphones y tablets con hologramas: HP ha desarrollado un tipo de visualización de hologramas sin necesidad de lentes o partes móviles.
Dispositivos cerebrales inalámbricos: Estos nuevos dispositivos cerebrales inalámbricos permitirán a las personas con problemas de movilidad muscular poder controlar su silla de ruedas o un ordenador con el pensamiento.
¿Qué les parecen estos últimos 10 avances científicos y tecnológicos? ¿Conocen algún otro que haya quedado fuera de esta lista?
¿Qué les parecen estos últimos 10 avances científicos y tecnológicos? ¿Qué creen que se debería inventar?




Presentacion de avances tecnologicos en la Exposición Internacional de Electrónica, les dejo algunas imagenes de los "aparatos" mas copados que se vieron, espero que les guste, aunque sean inalcanzables.

- Sony Cybershot DSC-G3

Con la de modelos existentes en el mercado, cada vez se hace más dificil innovar en el mundo de las cámaras fotográficas. Es por ello que la Cyber-shot DSC-G3 de Sony se merece toda nuestra atención, ya que se presenta como la primera compacta del mundo con WiFi que incluye su propio navegador web.

De esta manera, esta nueva cámara te permite hacer uso de los principales servicios online -algo que cada vez se está poniendo más y más de moda- subiendo las fotos y vídeos que realices, a través del navegador web, para alojarlos así en Picassa, Flickr o Youtube, entre otros.

Incluye además certificado DLNA y entre sus especificaciones mundanas encontrarás un sensor de 10 megapíxeles, un zoom óptico de 4x, una pantalla LCD de 3,5 pulgadas y funciones como el detector de sonrisas, de sonrisas y de escenas.

La Cyber-shot DSC-G3 está ya disponible para adquirir por un precio de 500 dólares (unos 365 euros al cambio)























link: http://www.videos-star.com/watch.php?video=HERvfyQB1Tw

- Samsung Electronics - televisores planos iluminados por diodos LED

En los televisores de cristal líquido (LCD) el negro nunca es negro de verdad. Es gris. En las escenas nocturnas de las películas, la noche nunca se ve real y en esas imágenes oscuras no terminan de distinguirse bien los objetos y las personas. Al final, por mucho que traten de engañarnos con sus cifras las firmas de electrónica, el contraste de los televisores de cristal líquido nunca termina de ser suficientemente bueno (y eso que estas teles LCD son muy buenas representando los blancos). Esto es lo que tratan de solucionar los últimos televisores de Samsung de las seires 8000, 7000 y 6000 con la retroilumuinación de sus pantallas a base de diodos LED que la firma coreana tiene previsto lanzar al mercado.

Los grandes fabricantes de televisores llevan tiempo tratando de resolver este problema y la solución más efectiva que han encontrado tiene que ver con el uso de diodos LED para iluminar la pantalla. En lugar de colocar en la parte trasera lámparas fluorescentes de catodos fríos (CCFL), estas teles LCD usan diodos LED que son muy rápidas a la hora de encenderse y apagarse. Estos diodos hiperluminosos no están siempre encendidos. Se apagan cuando la imagen es negra del todo. Y ésa es la clave.

En el CES 2009 Samsung ha presentado esta nueva colección de televisores que funcionan con iluminación LED. Unos televisores que destacan por su escaso grosor, cualidad que permite diseños más artísticos y, lo que es más importante, un ahorro considerable en el gasto de energía













Como añadido útil, la mayoría de estos televisores contarán con conexión a algunos servicios de Internet como Flickr, Yahoo o incluso usarán el servicio InfoLink como lector de feeds RSS para recibir las últimas noticias. De momento, el precio y la fecha de salida de estos televisores, todavía es una incógnita.

- Palm presentó el Pre

l nuevo modelo 'Palm Pre', además de ser un excelente terminal, viene acompañado con la plataforma 'WebOS', un sistema operativo que se maneja de forma táctil y que incorpora como novedad fundamental 'Palm Synergy' una tecnología que permite sincronizar distintas fuetes como Google, Outlook y Facebook. De esta forma al ejecutar una consulta el teléfono no nos devolverá sólo los resultados de la agenda sino que además buscará en los sms y mms, en nuestros hilos en redes sociales, o en sus entradas en Wikipedia o Google en caso de estar conectados. En palabras de Ed Colligan, presidente y CEO de la compañía "el teléfono no pretende ser un dispositivo dependiente de un ordenador de sobremesa, si no estar conectado directamente a la nube digital".

Las distintas aplicaciones pueden estar operativas al mismo tiempo gracias a la capacidad multitarea del 'Palm Pre' algo que le diferencia del iPhone. No así la forma amigable y divertida de moverse entre ellas que es táctil y similar a la usabilidad del terminal de Apple.

Desde Palm se asegura que los desarrolladores tendrán una plataforma sencilla para poder hacer aplicaciones para el 'Palm Pre'. Un punto importante ya que es aquí donde nace con mayor desventaja con respecto al teléfono de la manzana y será en la medida en la que aparezcan aplicaciones realmente interesantes en la medida que podrá desbancar al iPhone.
Técnicamente similar al iPhone

El 'Plam Pre', que se espera esté en el mercado a mediados de 2009 y que según se comenta en algunos foros de internet, tendrá un precio de unos 500 dólares, está dotado con el procesador más rápido de Texas Instrument y probablemente la solución más potente para un teléfono móvil.

De su exterior destaca su pantalla táctil de 3.1 pulgadas acompañada con un teclado físico, su tamaño: 59.5 por 100,5 y 16,95 mm, y un peso de 135 gramos.

Tiene una capacidad de 8 Giga Bites de los cuales 7.4 están disponibles para el usuario. Cuenta con GPS, WiFi, Bloetooth, estéreo A2DP y un puerto micro USB que permite conectarlo al ordenador así como usarlo de forma sencilla como disco duro extern.

Cuenta con sensores de luz y proximidad y acelerómetros. Lo que le capacita para, por ejemplo, ahorrar energía adaptando la luminosidad de la pantalla a la luz ambiente o apagando la pantalla cuando el usuario se pone el terminal en la oreja.

Pero, tal vez, una de las características que más llama la atención es su cargador sin cables, algo que hasta ahora ningún grande había ofrecido, ya no habrá que conectar el teléfono a un adaptador si que bastará con situarlo sobre el cargador.

Tras una época en la que las 'Palm' eran el gadget más devuelto en las tiendas nada más comprarlo ahora la empresa busca darle la vuelta a la tortilla y hace su apuesta poniendo sobre la mesa un dispositivo que promete, esperemos que no nos defraude.















link: http://www.videos-star.com/watch.php?video=JRnlzbuLRwM

- Sony Vaio P Series Lifestyle PC

Esperado, rumoreado y deseado, finalmente el VAIO P ya es oficial. El equipo de apenas 245 x 19.8 x 120 mm cabe en un bolsillo grande y es según Sony el más liviano del mundo con un peso de apenas 635 gramos.

El VAIO P tiene una pantalla ultra-wide de 8 pulgadas con resolución de 1600 x 768 pixeles, la cual incorpora tecnología XBRITE-ECO LCD para desplegar imágenes nítidas y brillantes. Además por el tamaño de esta, se pueden ver páginas web y documentos sin necesidad de hacer scroll lateral. En cuanto al teclado, este ocupa casi toda la superficie del chasis y ha sido desarrollado con un espacio entre teclas que ayuda a reducir los errores al escribir, incluso para las chicas de uñas largas.

El corazón de este "Lifestyle PC" es un procesador Atom Z520 de 1.33GHz, mientras que la memoria RAM es de 2GB y el disco duro de 60GB, pero puede usar hasta 128GB de SSD. Una cámara web de 1,3MP sirve para que saludes a tus amigos a la distancia.

La conectividad inalámbrica está a cargo de una tarjeta 3G para banda ancha móvil, WI-FI 802.11n y Bluetooth. La función de GPS permite encontrar de manera fácil lugares de interés o direcciones y todo sin necesitar de conexión a internet (sólo en USA y Canadá). El modo de booteo rápido (Instant Start Mode) permite el acceso a fotos, video, música o la web. La batería permite un uso de cuatro horas, pero de manera separada se venderá una que entrega ocho horas de energía. El sistema operativo por defecto es Windows Vista Home Premium y el precio de 900 dólares.























link: http://www.videos-star.com/watch.php?video=x0Sh7l948Hc

- Camara polaroid Zink

La firma Polaroid lanzó la versión digital de cámaras instantáneas que la hicieron famosa, una cámara de fotos que incluye una impresora sin tinta, lo bastante pequeña "para ser llevada a todos lados".

Esta innovación, presentada en el salón de la electrónica CES de Las Vegas, se lanza dos años después del cese de la producción de las cámaras Polaroid instantáneas con película.

La nueva cámara PoGo retoma la tecnología de la impresora Zink, lanzada hace un año y comercializada desde junio, que puede imprimir sobre papel térmico color las fotos enviadas por teléfonos celulares u otros aparatos portátiles.

"Basta presionar un botón para elegir entre las fotos digitales de la cámara, encuadrarlas o retocarlas, e imprimir en color, en menos de 60 segundos, tomas de 5 x 7 cm, todo en un solo aparato", señala Polaroid.

"Es la versión digital de nuestra cámara instantánea, que los consumidores adoran desde los años setenta", dijo el director general de imágenes numéricas de Polaroid, Jon Pollock.

Polaroid, que se acogió a la protección de la ley de quiebras el mes pasado para conducir una restructuración, asegura que ya no es necesario sacudir las fotos impresas para acelerar el revelado de la imagen.

La cámara de fotos instantánea PoGo mide 11,75 x 7,5 cm y pesa menos de 300 gramos. La foto impresa sale del costado de la máquina y no por debajo como lo hacía la versión tradicional. Será comercializada en Estados Unidos a partir de marzo a unos 200 dólares.
AFP Latam



















link: http://www.videos-star.com/watch.php?video=qxtpnQrfprU

- LG GD910

LG presentó un reloj con capacidad para telefonía celular de banda ancha, transmisión de video y una cámara. El LG GD910 saldrá a la venta este año, a un precio sin aclarar aún, aunque no se sabe si estará disponible en los Estados Unidos.















link: http://www.videos-star.com/watch.php?video=HcCi87KIELM

Espero que les haya gustado...

Fuentes:
http://www.gaceta.es/
http://es.engadget.com/search/?q=samsung+televisores&searchsubmit=
http://www.noticias24.com/tecnologia/noticia/918/camara-con-wifi-tv-de-leds-lo-nuevo-en-tecnologia-fotos/
http://www.tuexperto.com/2009/01/13/los-nuevos-televisores-de-samsung-llevan-iluminacion-led-ces-2009/
http://www.fayerwayer.com/2009/01/sony-vaio-p-series-lifestyle-pc/

Comenten!!!!
Muchas Gracias!!! Tagstecnolog a Mundo avances ltimos Compartir
0 11 0 0 Dar puntos 123456789+10
0 Puntos
Votos: 0 - T! score: 0 / 10
Seguir Siguiendo Dejar de seguir A favoritos 0
Seguidores
23.020
Visitas
2
Favoritos
¿Quieres recomendar este post a tus seguidores?
¿Seguro que deseas bloquear a este usuario?

¿Seguro deseas procesar este post?


Info

Los Mejores Avances Tecnologicos

Ciencia y Educación

Computadoras cuánticas, el futuro de la tecnología.

Noticias

Rayo láser que puede transferir toda una biblioteca en 10 s

Noticias

Actualidad Tecnología!
20 comentarios @PinguinoForro Hace 4 años0 con.. de su ma..!!!! que grosas!! cosas!! sobre todo el Reloj LG @yoeltisnado Hace 4 años0 siii increibles, gracias por comentar! @el_tracker Hace 4 años0 WoW Todo es Increible ... Viva la Tecnologia .. Nos acercan al Futuro @sistemdv Hace 4 años0 El futuro llego... hace rato. @loscelestes Hace 4 años0 Muy buenas cosas pero no me gusta mucho el reloj de LG ,
lo que mas me impacto fue la Camara polaroid Zink... @eragonpro Hace 4 años0 lo qmas me sorprendi fue la escaneadora portatil @frankstewart82 Hace 4 años0 Muy buen post


@ataquero Hace 4 años0 ME ENCANTO LA IMPRESORA!

BUEN POST @max6x6x6 Hace 4 años0 buen post, te falto el nokia N97 me lo compraria antes q la sony vaio @kikeee777 Hace 4 años0 eso es una impresora portatil? @jesusotaku Hace 4 años0 Jajajjaj y yo sin trabajo XD @tangato Hace 4 años0 Yo me compré mi actual vaio cr en japón hace dos años y ya estaba el led finito de samsung, lo miraba de adelante, de costado, de atrás, es como una cartulina... no sabía si volverme, si agarrarlo y salir corriendo o si pegarme un tiro en las... @anteojosdesol Hace 4 años0 excelete post segui posteando asi @LaCheno Hace 4 años0 lindo lindo!.... @gonza_97_09 Hace 4 años0

tremendo ojete !!!!!!!!

buen post @M4RT1N_82 Hace 4 años0 Buen post ! Tambien les dejo un blog de tecnología

*** @elcabezon17 Hace 4 años0 esta ta mejor @olmos5630 Hace 4 años0 @luqhas Hace 3 años0
@1996petter Hace 2 años0 http://www.taringa.net/posts/info/7439897/interesante-salud_-tecno_-avances.htm yoeltisnado
Regular
12 Seguidores
194 Puntos
10 Posts Acerca de Ignacio Castroli Es un hombreVive en ArgentinaSe unió a Taringa! hace más de 6 años

Post Relacionados
Ciencia y Educación

Nanotecnología
Info

10 avances informáticos de Internet que cambiaron al mundo
Noticias

la tecnologia cambian el mundo nuevas Tabletas baratas
Reviews

Los máximos avances tecnológicos ¿donde están realmente? Avisos Taringa!
Corte adelanto de Maldigohttp://www.taringa.net/musica/Maldigo señala una quebradura interna que tiene toda lengua porque







Avances en electrónica elástica
Nuevo material para dispositivos electrónicos elásticos inspirado en la naturaleza

Imitando la forma en la que los tendones se conectan a los huesos, unos científicos de Suiza han desarrollado un material que podría acelerar el desarrollo de dispositivos electrónicos portátiles, elásticos.

La industria de la electrónica elástica está en su infancia, pero unos dispositivos capaces de flexionarse sin romperse podrían revolucionar diversos mercados desde los teléfonos inteligentes a las células solares o los implantes médicos. Hace mucho tiempo que los futuristas predijeron la ropa con sensores que monitorean los signos vitales del usuario, o teléfonos inteligentes y pantallas tejidos en la tela de las camisas o chaquetas.

Sin embargo, mientras que los circuitos y el cableado están bien en superficies rígidas como las de un Tablet PC, se rompen fácilmente cuando se combinan con materiales elásticos. Andre Studart, un investigador del Instituto Federal Suizo de Tecnología en Zurich y su equipo han superado el problema con un material elástico de poliuretano que contiene "islas" lo suficientemente rígidas como para alojar y proteger los circuitos delicados.

Mientras que la parte blanda se puede estirar un 350%, las regiones rígidas creadas por impregnación del material con pequeñas plaquetas de óxido de aluminio y una arcilla sintética llamada laponita, apenas se deforman y pueden proteger los elementos electrónicos.

El material, presentado en la investigación que se publicó en la revista Nature Communications, está hecho de capas enlazadas y puesto que la concentración de las plaquetas aumenta gradualmente, la unión entre las partes elásticas y las rígidas también es duradera.



Avances tecnológicos de la electrónica aplicados a
la Domótica y la Inmótica

Carlos Fernando Zapata Aramayo*
"Esta interesante y novedosa rama de la electrónica permite la automatización completa de una vivienda con dispositivos, equipos y sistemas de control y comunicación…"


Resumen
Ante el avance de la tecnología en el campo de la electrónica, se propone a continuación una breve actualización respecto a la importancia de la Domótica y la Inmótica, como sistemas que facilitan la convivencia y seguridad del ser humano en sociedad, tanto en su entorno familiar como laboral.
Se sustenta el criterio de que la electrónica, aplicada a la par de otras ciencias y especialidades tecnológicas, es un instrumento capaz de formar un entorno tecnológico de avanzada en términos de costos/beneficios a corto, mediano y largo plazo, en un mundo en el que la comodidad, la tranquilidad y la seguridad han dejado de ser un lujo o parte de la ciencia ficción.
El objetivo final es concienciar al estamento universitario para asumir el reto de formar para el desarrollo de la tecnología propietaria y su aplicación práctica, de manera que sea posible cubrir las necesidades particulares de un país como el nuestro que se debate entre el desarrollo y la pobreza.
 
Las últimas tres décadas del pasado siglo marcaron el firme establecimiento, desarrollo y perfeccionamiento de la electrónica, a tal grado que en la actualidad su aplicación es parte de la vida del ser humano. De hecho, deben ser pocas las personas en el mundo que no estén en contacto con algún dispositivo que contenga o se derive de la electrónica, del silicio purificado.
 
____________________________________________________________________________________
*Presidente de la Academia de Electrónica; docente de Electrónica y Computación, Facultad de Ingenierías, UNIVA.
 
Los seres humanos somos hoy en día completamente dependientes del avance tecnológico llamado electrónica, en sus muy diversas presentaciones y aplicaciones; prueba de ello son la radio, la televisión, la Internet, el transporte, la industria, o algo tan sencillo como un reloj de pulsera. Además, su perfeccionamiento nos ha permitido ingresar con mayor eficiencia y una aceptable relación costo/beneficio, en los campos de la seguridad, la miniaturización, la inmunidad y la ecología, relacionados con la industria electrónica.
Este avance nos ha puesto, por un lado, en situaciones de peligro, si tomamos como referencia el desarrollo armamentista en países del primer mundo, pero también en situaciones de bienestar que se evidencian, por ejemplo en el campo de la medicina, mediante el uso de equipos de diagnóstico portátiles y auto operables para la detección precoz de enfermedades, hasta equipos que satisfacen los requerimientos para las más complejas cirugías. Podemos también afirmar que la electrónica es parte del avance de la ciencia, dado que gracias a ella se ha logrado, por ejemplo, la definición de la cadena del ADN y de los cromosomas humanos, empujando el desarrollo de la investigación genética hasta niveles a veces discutibles.
En las comunicaciones, ni qué decir, estamos inmersos en un mundo de señales de radiofrecuencia de todos los tipos y niveles que nos permite comunicarnos desde y hasta cualquier punto de la Tierra, y en ciertos casos fuera de ella, de manera que el aislamiento comunicacional es rémora del pasado, pese a que lamentablemente en algunas partes del mundo todavía existe el aislamiento social. Es práctica común el que a través de equipos, cada vez más pequeños, los individuos estemos en contacto en cualquier momento gracias a la telefonía celular, pero sobre todo gracias a Internet, que definitivamente es un parteaguas en varios sentidos, dado que tanto en las sociedades más avanzadas como en las más remotas se ha facilitado, con costos razonables, el ingreso al mundo tecnológico, para agilizar el acceso a la ciencia e investigación y la prestación de servicios para la satisfacción de las necesidades.
Un campo relativamente nuevo, que se ha perfeccionado en este siglo, es el la Domótica, que no es otra cosa que la aplicación de la electrónica en y con todas sus ramificaciones para el bienestar humano, para mejorar la calidad de vida y la comodidad individual y colectiva. Así entonces, cuando hablamos de Domótica, en pocas palabras, nos referimos a la electrónica para la comodidad, tranquilidad y seguridad del individuo.

Desarrollo de la tecnología electrónica
La Domótica es una división de la electrónica en la que se aplican las tecnologías existentes de la información y comunicación para la mayor comodidad y conveniencia en una casa habitación. Esta interesante y novedosa rama de la electrónica permite la automatización completa de una vivienda con dispositivos, equipos y sistemas de control y comunicación, distribuidos y controlados domésticamente desde adentro o desde afuera. Etimológicamente deriva del francés domotique, que se sirve del latín domus, que significa hogar, casa, y de informatique, informática o ciencia de la información, es decir la ciencia destinada a la recolección, almacenaje, transmisión, procesamiento y despliegue de información, aplicada en el hogar. Cuando se integran sistemas de control automatizados de procesamiento de datos y toma de decisiones, se crea o se incurre en la Inmótica, del inglés inmotics, INtelligent doMOTICS.
Como un sistema seguro y comprobado se estableció, desarrolló y comercializó formalmente a finales del 2001, en Bruselas, Bélgica, a iniciativa del Belgian Center for Domotics and Inmotics (BCDI), que reunió asociaciones, instituciones y organismos afines, con el objeto de ayudar a estandarizar el sistema en Europa y el mundo entero. Sus estándares se aplican mayor y más abiertamente en los países integradores de estos sistemas, entre ellos México, porque establecen las normas y protocolos para la integración de sistemas y marcas, principalmente europeas, facilitando la comercialización especializada. Sin embargo, existen en el mundo tres grandes ramas de la Domótica: la asiática, la estadounidense y la europea.
La rama asiática, liderada por el Japón, controla el mercado oriental con equipos especializados bajo sus formatos y tecnología propia, desarrollada a partir de conceptos, equipos y sistemas comercializables sólo en ese país, a veces por cuestiones socioculturales, y otras por simple protección de tecnología especializada. La rama estadounidense, que abarca el norte de América, básicamente Estados Unidos y Canadá, que si bien tiene tecnología propia, sus estándares son diferentes y muy incipientes comparados con los japoneses, y cabe hacer notar que no siempre funcionan bien en México, país que por excelencia comercializa e instala la tecnología proveniente de esta parte del continente, y por último, la rama considerada como la más importante: la europea, en la que se registra la mayor cantidad-calidad de desarrollo tecnológico, la mayor cantidad de infraestructura instalada a nivel continental y la mayor cantidad de empresas dedicadas al rubro.
El fundamento básico de la Domótica es que la multiplicidad de las aplicaciones tecnológicas que han entrado en nuestros hogares sea efectivamente para mejorar nuestras vidas y no para crear conflictos, preocupaciones y estrés por su variedad y complejidad. De hecho, sirve para ayudar en aquellas tareas que no siempre podemos cumplir a cabalidad, al comenzar el día o antes de ir a la cama, cuando salimos de la casa o llegamos a ella; tareas que normalmente quedan pendientes, como la revisión de termostatos, luces, puertas, alarmas, electrodomésticos conectados, fugas de agua, gas, riego del jardín, etcétera. La Domótica sirve para resolver todos los posibles problemas, incluso en ciertas condiciones, antes de que se produzcan, facilitándonos la vida cotidiana, procurándola descansada, relajada y sin preocupaciones mayores ni menores.
Así entonces, la Domótica, entendida como el control residencial integrado, concepto que en décadas pasadas era considerado imposible o sólo podíamos conocerlo a través de películas de ciencia ficción, es ahora posible gracias a los avances tecnológicos de aplicación en la construcción y automatización residencial, sustentada en tres sencillos objetivos: proporcionar el mayor confort, alta conveniencia y tranquilidad mental para un verdadero descanso en casa. Tiene que ver con cualquier aplicación, en cualquier ambiente doméstico, en que la electricidad y la electrónica están involucradas, tal como la calefacción y ventilación, la protección y seguridad, la conservación y preparación de alimentos, el control de consumo de energía, el cuidado de ropa y menaje, comunicaciones, entretenimiento y mantenimiento físico. En los últimos tiempos, tiene influencia en los campos sociales para el cuidado de la salud, cuidado de ancianos, supervisión de niños y personas inválidas, además se ha involucrado en aspectos como tele banca, tele compras, tele comunicaciones y supervisión remota.
En este marco, la Domótica tiene más peso que cualquier otra área de desarrollo, puesto que pese a que involucra muchas disciplinas y requiere acciones conjuntas para hacerla posible, facilita enormemente la vida del individuo promedio de nuestra sociedad. Por ello, y dado que su enfoque se centra en las personas y su medio ambiente, los fabricantes han desarrollado materiales y sistemas capaces de cubrir las demandas de los constructores y renovadores de casas residenciales, solucionando una infinidad de problemas con sistemas no compatibles, con necesidades de recursos diferentes y difíciles de operar; se ha logrado estandarizar el concepto de la electrónica aplicada al hogar, desde el cableado estructurado -requerido para estos sistemas-, hasta los programas comerciales de control, pasando por el desarrollo ordenado de interfaces y dispositivos electrónicos de alto rendimiento y fáciles de instalar por personal calificado. Desde la década de los noventa han quedado atrás los tiempos en que el control climático, la seguridad, la telefonía, la automatización y la informática representaban más problemas que soluciones, debido a su complejidad, dificultad de instalación y falta de homologación de sistemas.
Dispositivos de control
El fundamento de operación de un sistema domótico está basado en un centro de mando principal, un módulo de control digital encargado de la ejecución de instrucciones previamente programadas y un conjunto de dispositivos periféricos de ejecución con tareas específicas que pueden ser programadas independientemente del módulo de mando central, aunque en constante comunicación y retroalimentación de datos. El tamaño y capacidad del centro de control o módulo principal es directamente proporcional a la capacidad y los recursos instalados en la residencia, aspectos que sólo el dueño o usuario final va a tener como última palabra, es decir, que el usuario es quien decide qué dispositivos van a instalarse, qué funciones va a controlar o automatizar, qué tareas y agenda tendrá cada dispositivo, qué instrucciones se ejecutarán y en qué momento. Son sistemas completamente abiertos a programación e instalación, sus limitaciones están en la imaginación del diseñador y, por supuesto, no hay barreras a futuro.
Cuando los periféricos están diseñados, instalados y conectados por el especialista en Domótica, el usuario o propietario del inmueble podrá definir los controles e instrucciones a ejecutar, tales como:
Control de iluminación, fijo o atenuable, por habitaciones y ambientes, regulado por presencia de individuos y horarios, para control y ahorro considerable de energía en un hogar, beneficiando a los habitantes, a la ecología y a la sociedad en su conjunto.
Control de seguridad mediante alarmas, detectores de presencia, control de accesos o circuitos cerrados de televisión por telecomunicación mediante video portero, de manera que en caso de no haber habitantes en casa comunique directamente al celular con pantalla la voz y el video del visitante.
Control del encendido o apagado programado o aleatorio de equipos de sonido audio/video como música ambiental, fiestas, recreación o como seguridad en ausencia de habitantes de la casa en vacaciones.
Control de la temperatura interior mediante aire acondicionado, o bien calefactores, dependiendo del área geográfica y número de habitantes.
Detectar falta de provisión de servicios como agua, luz, gas, televisión o cualquier otro, y comunicar inmediatamente a los habitantes, física o remotamente, así como riesgos de seguridad por invasión, fugas o incendios.
Abrir o cerrar las cortinas o persianas para calentar ambientes o buscar privacidad y/o seguridad.
Apagar la lavadora cuando el nivel de agua del tinaco está abajo del rango crítico.
Controlar el encendido de la televisión de los niños en horario restringido.
Mantener cerradas las puertas de la cochera y accesos.
Prevenir accidentes fortuitos o premeditados, tomando acciones pertinentes, previamente estipuladas y programadas.
Monitoreo remoto y a distancia de los niños, sus empleados, niñeras o enfermeras para un correcto cuidado en el trato.
Mantener un cuidado de la familia y control de la servidumbre, vía remota en imágenes en tiempo real mediante Internet.
Cuidado y supervisión remota de niños, ancianos y personas minusválidas.
Infinidad de otras aplicaciones, limitadas única y exclusivamente por la intuición e imaginación del especialista y los habitantes.
 
La operación del sistema permite que con sólo presionar un botón en el control maestro, una instrucción sea ejecutada, interrumpida o igualmente modificada de acuerdo con necesidades momentáneas, y debidamente desplegada en una pantalla la acción, así como el resultado de la instrucción. Para el efecto se utilizan pantallas sensibles al tacto y/o teclados fácilmente operables por cualquier miembro de la familia que tenga acceso a los mismos. Se puede también programar eventos calendarizados de corto o largo plazo, mediante la ejecución de programas amigables en ambiente Windows, a través de cualquier PC, previa configuración del sistema en particular.
En el terreno de la alta tecnología, a corto plazo, incluyéndose nuestro entorno, los servicios de la Domótica incluirán tareas como:
Hacer automáticamente, a través de la red, las compras de comestibles en el mercado, de acuerdo con la información del refrigerador.
Llamar al médico de la familia, o al servicio de emergencia, en caso de un accidente en casa o cuidado de personas mayores a través de equipos médicos especializados.
Recibir mercancías a terceros en un área restringida por control de acceso y video, en ausencia de los habitantes y con comunicación directa vía telefónica con el dueño.

Cabe además destacar que la Domótica es una tecnología revolucionaria que ha cambiado el modo de vida, proporcionando múltiples beneficios para el ahorro de energía global, la seguridad, el acondicionamiento habitacional y la convivencia. Esta tecnología aplicada a gran escala representa la Inmótica, que podemos encontrar en los famosos edificios inteligentes, en los que las variables de control son más sofisticadas y en mayor cantidad, puesto que cubren por ejemplo el control de aires acondicionados, elevadores, seguridad, cctv, alarmas anti robo, control de consumos energéticos; implementación válida para edificios gubernamentales, hoteles, corporativos, hospitales y otros.
Un paso más en el desarrollo de la Domótica es la Inmótica, definida como la toma de decisiones razonadas por programas y sistemas electrónicos capaces de detectar condiciones de riesgo o bien de ahorro de energía. Esta tecnología tiene la capacidad de interpretar, analizar y estudiar comportamientos específicos de los habitantes en residencias o edificios para tomar decisiones con base en ellos; así, la Inmótica es Domótica con inteligencia
La Inmótica es un recurso tecnológico que normalmente se instala en edificaciones de gran magnitud, por dos razones básicas: la cantidad de dispositivos de control y supervisión requeridos y el costo de instalación y equipamiento. Sin embargo, no limita su uso a una residencia en la que el sistema estudia automáticamente el comportamiento de sus habitantes en periodos de tiempo variables, de manera que cuando detecta actividades repetitivas, toma automáticamente previsiones para la facilitación de ciertas tareas antes de su solicitud.
Su aplicación en ambientes domiciliares es todavía restringida, porque existe el temor de que una casa inteligente implica un riesgo de seguridad, hay quienes piensan quién sabe que le vaya a pasar en su casa cuando esté a solas. Sin embargo, esta posibilidad es mera fantasía, puesto que una casa inteligente no agredirá en lo más mínimo ni atentará contra la seguridad, eso sólo sucede en las películas de suspenso de Hollywood, puesto que la inteligencia es meramente terminología técnica para emular la automatización en el más amplio sentido de la palabra automático.
Equipos periféricos
La tecnología de la Domótica está basada en varios dispositivos de uso cotidiano en la industria de la automatización, tales como los conocidos PLC´S, temporizadores o timers, relevadores, sensores de todo tipo, equipos de automatización industrial y los novedosos sistemas PAC´s (Programable Automation Controler), similares a los PLC, pero que funcionan en ambientes de red en amplios protocolos, aplicados todos a la específica conveniencia de cada diseño, con herramientas de diagnóstico y pruebas, así como herramientas lógicas para el diseño y la planificación previa de cada aplicación y costo, desarrollados especialmente para automatización. Es también parte de la tecnología el uso de microcontroladores especializados, la informática a través de PC´s y sistemas amigables con posibilidad de diseño propio, así como sistemas de cableado estructurado e interfaces de salida a sistemas de conmutadores telefónicos comerciales o celulares actuales con servicios de Internet y video en línea.
Llegando un poco más lejos, podemos encontrar sistemas sofisticados conectables a equipos médicos portátiles, sistemas de seguridad que pueden enviar mensajes a bomberos, fugas, policía y otros. La mayor y gran ventaja es que al no existir limitaciones, se pueden desarrollar las interfaces para cualquier aplicación particular que se desee, dado que se cuenta con la información técnica requerida y lo demás queda en manos y capacidad del integrador de sistemas.

Conclusiones
Dado el desarrollo y disponibilidad de la nueva tecnología de la electrónica, es menester apoyar su perfeccionamiento, considerándose como aspecto fundamental que cubre el entorno de la comodidad y seguridad de los individuos en sociedad, un área hasta hace poco descuidada. Para este perfeccionamiento resulta pertinente plantear la posibilidad del desarrollo de tecnología propietaria para nuestro entorno, a través de la investigación y aplicación por el alumnado de nuestra universidad, y en general del país, en carreras relacionadas, tales como electrónica, informática, computación, mecatrónica e industrial. Ya que nuestro país cuenta con sistemas y tecnologías descontinuadas en otras partes del mundo, pero que cubren necesidades en nuestro país, se requiere del desarrollo de sistemas específicos para aplicaciones residenciales que vayan orientadas principalmente al ahorro de energía.
Esta ciencia y su aplicación, tanto en residencias particulares como en edificios de uso público y privado, no tendrían que estar limitados por el acceso a la tecnología y mucho menos por factores económicos, si se toma en cuenta que sus objetivos son proporcionar mayor confort, mejor conveniencia y tranquilidad mental. Tendría además que considerarse que se trata de una tecnología que por sí misma implica un importante ahorro de costos en el rubro de la seguridad física de los individuos, mantenimiento de equipos y enseres electrodomésticos, pero sobre todo en el consumo de energía, en un mundo superpoblado que prácticamente lucha por su sobrevivencia.
Cabe también dejar en claro que no se trata de una tecnología destinada exclusivamente a países desarrollados o a estratos socioeconómicos de élite, sino más bien de una tecnología que como parte del fenómeno de la globalización tiende a convertirse en parte de los servicios básicos, como el alcantarillado, la electricidad, el agua potable y parte de los servicios que el Estado debe prestar a sus ciudadanos, sin invadir el derecho a la privacidad, en términos de seguridad y convivencia social.
Por ello es tan importante que el alumnado de las carreras de ingeniería y afines tome conciencia del amplio terreno de desarrollo que se presenta en esta época, y aprovechar las circunstancias y momento para trabajar por el establecimiento adecuado de la Domótica a nuestro entorno, abaratando costos, y renovando nuestros recursos sin necesidad de grandes inversiones y grandes movimientos estructurales, para la implementación de esta tecnología. Hay que fomentar el ingenio de nuestros ingenieros en el desarrollo de tecnología propietaria y de punta de lanza para nuestra sociedad, y ¿por qué no?, para el mundo.
Bibliografía
BCDI. (2004). Belgian Centre for Domotics and Inmotics. Disponible en www.bcdi.be.
Romero, C.; Vázquez, F. y De Castro, C. (2005). Domótica e Inmótica, Viviendas y edificios inteligentes. México, Distrito Federal: Alfaomega Ra-Ma.Zapata, C. (2004). Investigación personal de las nuevas tecnologías del presente inicio de milenio. Guadalajara: Inédito.




















MICROELECTRÓNICA EN EL AVANCE DE LA TECNOLOGÍA Y SUS APLICACIONES.
Los avances de la tecnología nos traen cada vez mas novedades y también sorpresas. Adaptarse a ese cambio es nuestra vida diaria. 

Debido al avance de la tecnología nosotros nos vemos involucrados en un mundo de cambio constante, uno de los mas grandes avances es la evolución es la microelectrónica.
El concepto mejor definido podemos conceptualizar al ala microelectrónica de la siguiente manera. La microelectrónica es la aplicación de la ciencia electrónica a componentes y circuitos de dimensiones muy pequeñas, microscópicas y hasta de nivel molecular para producir dispositivos y equipos electrónicos de dimensiones reducidas pero altamente funcionales. El teléfono celular, el microprocesador de la CPU y la computadora tipo Palm son claros ejemplos de los alcances actuales de la Tecnología Microelectrónica., también la microelectrónica llevo al desarrollo del circuitos integrados. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque mas tarde la microelectrónica se desarrollo con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.
Nosotros como estudiantes de ingeniería electrónica podemos utilizar múltiples softwares para realizar distintos trabajos que involucran la microelectrónica entre ellos podemos considerar un pequeño resumen de cada uno de ellos.
DaqGen v1.40 es un excelente generador de señales en PC también DesignWorks Professional 4.2 for Windows un excelente diseñador de circuitos análogos y digitales PSPICE 9.1 que es uno de los mejores simuladores electrónicos.
MPLAB Este es uno de los programas utilizados para trabajar con PIC. Quizás es uno de los mejores por su gran facilidad de manejo y porque es compatible con la mayoría de microcontroladores que existen. Además de esto soporta un gran número de interfaces. Es excelente.
P-CAD 2004 , CADint 3.70.1 , ExpressPCB y PCB123
Estos son alguno de los excelentes programas para el diseño de PCB. También tenemos otros programas para distintos usos y aplicaciones en la microelectrónica también tenemos otro software como Crocodile que es una versión para los principiantes de uno de los diseñadores de electrónica más populares. Ahora en 3D.
BIP Electronics Lab Oscilloscope 3.0 es un analizador de señales por PC, Electronic Circuit Designer es un programa para el desarrollo de circuitos electrónicos también Spectrogram version 5.0 analizador de espectros en PC.
De acuerno a nuestras necesidades que tenemos utilizamos los distintos programas para la simulación o proceso de grabado entre otras utilidades por ejemplo en el área de la ingeniería para programar PICs, podemos utilizar asembler o c++, MPLAB es un buen programa para hacer la programación de pics en un lenguaje asembler Y CCS bueno hacer el programa para pics pero basado en lenguaje C, ahora como programa para grabar los PICS tenemos el ICPROG y el WINPIC (se puede programar por puerto serial y por puerto USB).
En el área de control el más utilizado es el MATLAB conjuntamente con el SIMULINKy de acuerdo con el avance de mis estudios les recomiendo usar los siguientes programas porque no me han traídos muchas dificultades como por ejemplo PROTEUS, MULTISIM, MATLAB, SIMULINK, WORBENCH, EAGLE y entre otros.
En resumen diré que muchos de los softwares son muy buenos en sus respectivas aplicaciones que se les da, también hay que aprender a usar toda las herramientas que nos ofrece la tecnología junto a la microelectrónica.

















Gran avance en la electrónica elástica

Para las personas con enfermedades del corazón y otras dolencias que requieren supervisión frecuente, la vida cotidiana puede verse bastante alterada por culpa de las constantes visitas al hospital y el engorro de someterse a los análisis.

La situación sería muy distinta si gran parte de las pruebas que se hacen en los hospitales pudieran realizarse en casa del paciente o en cualquier otro lugar.

Bastantes científicos especializados en tecnología médica vislumbran ya una época en que los dispositivos de monitorización médica se integren sin problemas dentro del cuerpo humano, sean capaces de hacer un seguimiento continuado de los signos vitales del paciente y transmitan los datos a los médicos. Sin embargo, un gran obstáculo continúa impidiendo la materialización de tecnologías como éstas: los dispositivos electrónicos son demasiado rígidos.

Un equipo de investigadores de la Escuela McCormick de Ingeniería y Ciencias Aplicadas de la Universidad del Noroeste, en Evanston, Illinois, Estados Unidos, junto con científicos de otras instituciones dentro y fuera de esa nación, recientemente han desarrollado un diseño que permite a la electrónica doblarse y estirarse hasta cuatro veces más de lo que es posible con la tecnología actual. La clave es una combinación de un polímero poroso y un metal líquido.

Yonggang Huang. (Foto: U. McCormick)
Con la tecnología actual, la electrónica es capaz de poseer una cierta elasticidad, pero muchas aplicaciones potenciales exigen al dispositivo estirarse como una cinta elástica de las usadas para sujetar cosas.

Un desafío para lograr esa elasticidad es lograr que no se pierda la conductividad. Los circuitos hechos de metales sólidos que están actualmente en el mercado pueden sobrevivir a una cantidad pequeña de estiramiento pero su conductividad eléctrica desciende muy por debajo de lo tolerable cuando experimentan ese estiramiento.

El equipo de Yonggang Huang y Shuodao Wang, de la Universidad del Noroeste, y sus colegas en el Instituto Avanzado de Ciencia y Tecnología (KAIST), en Daejeon, Corea del Sur, la Universidad Tecnológica de Dalian en China, y la Universidad de Illinois en Urbana-Champaign, Estados Unidos, ha encontrado una manera de superar este desafío.

Primero, estos científicos crearon una estructura tridimensional muy porosa usando un material polimérico que puede estirarse hasta tres veces su tamaño original. Entonces pusieron una sustancia metálica líquida dentro de los poros, lo cual permite que la electricidad fluya de manera permanente, incluso cuando el material es estirado al máximo.

El resultado es un material muy estirable y además buen conductor eléctrico


Investigadores españoles sintetizan por primera vez nanoanillos de plata

Investigadores del ITMA Materials Technology, con sede en Avilés (España), han patentado los nanoanillos de plata. La nueva estructura nanométrica podría mejorar la transparencia y conductividad de las pantallas táctiles, tanto rígidas como flexibles, y aumentar el rendimiento de las células solares, entre otras aplicaciones.

Hace escasos meses, cuando los científicos de la sede avilesina del ITMA Materials Technology creaban nanohilos de plata, encontraron algo fuera de lo habitual: "Estaba observando al microscopio electrónico una muestra de los últimos nanohilos que habíamos fabricado cuando vi allí en medio un anillo", relata Luis J. Andrés, investigador del Área de Energía.

Corrobora la sorpresa del momento Mª Fe Menéndez, investigadora del mismo centro: "Acto seguido, nos pusimos a buscar exhaustivamente en la superficie de toda la muestra, y encontramos más nanoanillos", afirma.

Tras revisar todas las fabricaciones anteriores, los investigadores hallaron que cuando habían sintetizado nanohilos con longitudes y grosores determinados, también aparecían nanoanillos que en un primer momento habían pasado desapercibidos.

Un hallazgo que les llevó a concluir que, bajo determinadas condiciones, los hilos suficientemente largos y finos pueden doblarse hasta que sus dos extremos se encuentren y se cierre el círculo. Los nanoanillos fabricados tienen un diámetro de entre 14 y 60 micras, aunque "hay un valor óptimo que permite obtener la mayor conductividad y transparencia", admiten los investigadores.

Ahora, y tras haber registrado la patente tanto de la nueva estructura nanométrica como del método para obtenerla, los investigadores se han volcado en sistematizar la síntesis de estos nuevos nanomateriales.

Como señala Luis J. Andrés, "para nosotros es esencial controlar la producción a escala industrial de los nanoanillos, de tal forma que podamos ofrecer al mercado una fabricación estable y en cantidades adecuadas, que puedan utilizarse para manufacturar bienes de consumo".

Un planteamiento que les ha llevado a escalar la producción de forma destacable: "Estamos alcanzando de forma sistemática y estable volúmenes de reacción en torno al medio litro, que son billones de billones de nanohilos, mientras que en los procesos de fabricación habituales de nanoestructuras metálicas los volúmenes de reacción son del orden de 50 ml", afirma el investigador.

Nanoanillo de plata observado al microscopio electrónico de barrido. (Foto: ITMA)

Actualmente, el material más utilizado para fabricar materiales conductores y transparentes es el óxido de estaño e indio, conocido como ITO por sus siglas en inglés. Pero, según David Gómez, "no sólo es un inconveniente el hecho de que el indio sea escaso, sino que además, el proceso de fabricación del ITO es costoso y no se puede utilizar para dispositivos que sean flexibles".

Por estas razones, los investigadores del ITMA buscan alternativas para desarrollar materiales conductores y transparentes, principalmente a partir de nanoestructuras de plata; una solución "con muy buena relación entre precio y conductividad", defiende Luis J. Andrés.

Para explicar el principio de funcionamiento de los nanohilos de plata, el investigador recurre a la imagen del popular juego de mesa que comienza dejando caer numerosos palitos, que simulan los nanohilos, al azar sobre una superficie: "Cada uno de los puntos en que cada palito toca a otro es un contacto eléctrico".

Por eso, continúa el investigador, cuanto más largos son los filamentos, más posibilidades hay de que utilizando una cantidad menor de hilos se toquen y creen una red entre ellos que conduzca la corriente eléctrica.

"Al fabricar nanohilos más largos podemos emplear una menor cantidad, con lo que obtenemos una mayor transparencia, reforzada también por la reducción de grosor que hemos conseguido", concluyen Luis J. Andrés y Mª Fe Menéndez.

Los nanohilos fabricados en el ITMA tienen hasta 150 micras de largo, si bien la longitud media se sitúa en torno a las 100 micras, y el grosor es de entre 40 y 250 nanómetros. En definitiva, indica David Gómez, director del Área de Energía del centro tecnológico, "hemos conseguido una relación entre longitud y grosor de uno a mil, el mismo aspecto que tendría una varilla de 1 milímetro de diámetro y 1 metro de longitud; mientras que las relaciones habituales en el mercado son del orden de 1 a 500".

Tal y como indican los investigadores del ITMA, "al ser estructuras cerradas, los nanoanillos tienen una ventaja frente a los nanohilos, y es que la superficie que encierra cada círculo tiene su conductividad eléctrica asegurada, y puesto que nada obstruye el paso de luz, permiten alcanzar una mayor transparencia que en los materiales tratados con nanohilos".

Ambos tipos de nanoestructuras podrían aplicarse a la fabricación de pantallas de teléfonos y dispositivos móviles con mayor nivel de transparencia y menor consumo de batería, incluso en dispositivos flexibles. También permitirían mejorar el rendimiento de las actuales células fotovoltaicas: "Aplicamos los nanohilos en una suspensión, igual que si fuera una pintura, por lo que no sería necesario alterar las células solares", afirma Luis J. Andrés.

Otra posible aplicación de los nanohilos de plata son los espejos de alta reflectividad, utilizados en satélites y generación de energía termosolar: "Nuestros últimos ensayos nos están dando resultados del 96,5% de reflectividad, frente a recubrimientos basados en nanopartículas de plata, desarrollados por el ITMA en los últimos años, donde sólo se alcanzan valores del 95%, destacan los investigadores.

Mientras continúan escalando el proceso de fabricación, los investigadores del ITMA explican que están estudiando posibles técnicas para mejorar la conductividad obtenida, que se encuentra dentro de los valores que alcanza el ITO. Según Luis J. Andrés, "al soldar los anillos entre sí, conseguimos reducir la resistencia y aumentar la conductividad entre un 30 y un 45%. Otra línea de investigación que ya tenemos en marcha es utilizar la sinergia comprobada entre los nanohilos de plata y el grafeno". (Fuente: FICYT)


Un termómetro a nanoescala
Un equipo internacional formado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) (españa) y del Instituto Italiano de Tecnología ha desarrollado un método para medir y controlar la temperatura en el entorno de nanopartículas magnéticas. El sistema descrito en el estudio, publicado en la revista Nano Letters, podría emplearse para liberar fármacos de manera controlada dentro del organismo.

"Las partículas magnéticas tienen la propiedad de que al ser sometidas a un campo magnético alterno se calientan y disipan calor en su entorno. Sin embargo, un aspecto no resuelto hasta ahora era determinar la distribución de la temperatura en el entorno de la partícula cuando esta se calienta. Para superar ese problema hemos desarrollado un nuevo método que consiste en emplear una molécula termosensible que se degrada en función de la temperatura", explica el investigador el CSIC Miguel Ángel García, del Instituto de Cerámica y Vidrio.

Este método alcanza una resolución inferior al nanómetro, la mayor obtenida hasta la fecha en este tipo de medidas.

La molécula termosensible se coloca a una distancia fija de la nanopartícula, con un polímero como espaciador, y se enlaza a una molécula fluorescente. Midiendo ópticamente la cantidad de moléculas fluorescentes que se separan de las nanopartículas al aplicar el campo magnético, se puede determinar la temperatura que ha alcanzado la molécula termosensible y su distribución. Según el estudio, este método alcanza una resolución inferior al nanómetro, la mayor obtenida hasta la fecha en este tipo de medidas.

"Los resultados han permitido comprobar que a escalas tan pequeñas las propiedades térmicas de los materiales se ven afectadas, y el trasporte de calor sigue unas leyes distintas a la que son válidas para materiales de tamaño macroscópico", añade el investigador del CSIC.

Este trabajo se engloba dentro del proyecto europeo MAGNIFYCO, que estudia el uso de nanopartículas magnéticas para la diagnosis y la terapia de tumores, mediante la liberación de fármacos de forma controlada dentro del organismo. "Si sustituimos la molécula fluorescente por un medicamento, este se puede liberar de forma controlada para que sea lo más efectivo posible y así reducir los efectos secundarios", concluye García. (Fuente: CSIC)


Los nanotubos de carbono podrían hacer resonancias magnéticas a moléculas
Los nanotubos de carbono son uno de los materiales más fuertes y más duros conocidos, con una resistencia mucho mayor que el acero. Sus propiedades eléctricas y térmicas son excepcionales y sus usos potenciales van desde raquetas de tenis y chalecos antibala, hasta componentes electrónicos y dispositivos de almacenamiento de energía.

Ahora, un equipo internacional ha demostrado que también podrían llegar a revolucionar el diagnóstico médico por imagen, con resonancias magnéticas a moléculas individuales.

Científicos del Instituto de Ciencias Fotónicas, ICFO, en colaboración con investigadores del Instituto Catalán de Nanotecnología (ICN2) y de la Universidad de Michigan, han conseguido medir fuerzas muy débiles con una sensibilidad 50 veces superior a lo conseguido hasta el momento. Esta mejora supone un punto de inflexión en la medición de fuerzas muy débiles y abre la puerta a realizar resonancias magnéticas a escala molecular.

En un artículo publicado en Nature Nanotechnology, el grupo liderado por el doctor Adrian Bachtold, actualmente en ICFO pero que inició esta investigación cuando pertenecía a ICN2, explica cómo ha conseguido preparar los nanotubos de carbono para que actúen como sondas que vibran con una intensidad proporcional a la fuerza electroestática de las moléculas.

Usando electrónica muy precisa, el equipo de Bachtold ha podido medir la amplitud de la vibración de estos nanotubos y conocer la intensidad de la fuerza electroestática.

"Los nanotubos de carbono son parecidos a cuerdas de guitarra que al aplicarles una fuerza vibran; sin embargo, en este caso las fuerzas que los hacen vibrar son extremadamente pequeñas", explica Bachtold.

En los últimos diez años, los científicos solo habían podido conseguir mejoras muy sutiles en la sensibilidad de la medición de fuerzas débiles. Pero este descubrimiento marca un antes y un después y señala a las nanotubos de carbono como una gran tecnología para en el futuro realizar resonancias magnéticas a moléculas individuales.

Nanotubo y esquema de uno de los dispositivos diseñados en el estudio. (Foto: ICFO et al.)
La resonancia magnética convencional registra el spin de los núcleos atómicos del conjunto de nuestro cuerpo que han sido previamente excitados por un campo electromagnético externo. Según la respuesta del conjunto de todos estos átomos, se puede monitorizar y diagnosticar la evolución de ciertas enfermedades.

Sin embargo, esta técnica de diagnóstico convencional tiene una resolución de unos pocos milímetros. Los objetos más pequeños no tienen suficientes átomos como para poder observar la señal de respuesta.

"Los resultados presentados nos permiten medir la fuerza creada por cada átomo individual y en consecuencia saber su spin. En el futuro esta técnica podría revolucionar la forma de realizar diagnósticos médicos por imagen" concluye Bachtold.



Establecer estados cuánticos mediante átomos individuales de silicio

Introduciendo "defectos" (átomos particulares de silicio) mediante el uso de microscopía de Efecto Túnel (STM), se ha logrado conectar átomos individuales para formar estados cuánticos.

El logro, fruto del trabajo de científicos en el Centro de Nanotecnología de Londres, adscrito al University College de Londres, demuestra la viabilidad de diseñar y generar estados cuánticos a escala atómica sobre la superficie del silicio, un paso importante hacia la fabricación de piezas de dispositivos tan pequeñas como átomos individuales.

Los avances en la física atómica ahora permiten reunir iones individuales para que formen estados cuánticos coherentes. Sin embargo, para construir sistemas de átomos conectados en grandes cantidades, como se necesita en aplicaciones tales como la computación cuántica, es muy conveniente desarrollar un buen modo de construir dichos sistemas en el estado sólido.

Los semiconductores, como por ejemplo el silicio, habitualmente presentan defectos atómicos que tienen claras analogías con iones atrapados. Sin embargo, hasta ahora ha resultado difícil introducir tales defectos de manera determinista a fin de observar con todo detalle la conexión entre sistemas amplios de defectos individuales.

Ahora, el equipo de Steven Schofield, del citado centro de nanotecnología, ha mostrado que se pueden diseñar y generar estados cuánticos en el silicio mediante la creación de defectos que interactúen entre sí de la manera adecuada. En los experimentos, cada defecto individual consistía en un átomo de silicio con un enlace roto, lo cual genera un efecto comparable en algunos aspectos al extremo suelto y oscilante de un cable que cuelga de una estructura. Durante este estudio, estos defectos fueron creados por pares y en cadenas extendidas, con menos de un nanómetro de separación entre cada defecto.

Imágenes obtenidas mediante microscopía de Efecto Túnel, en las que se muestran los estados cuánticos de una estructura atómica artificial en silicio. (Foto: LCN)

El siguiente paso en esta línea de investigación y desarrollo es replicar estos resultados en sistemas con otros materiales, con miras sobre todo a la construcción de computadoras cuánticas



Puntos cuánticos en un bosque de nanocables, ¿la receta para una célula solar óptima?

Usar partículas exóticas llamadas puntos cuánticos como la base de una célula fotovoltaica no es una idea nueva, pero los dispositivos de este tipo creados hasta ahora aún no convierten la luz solar en energía eléctrica con una eficiencia lo bastante alta. Un nuevo enfoque propuesto por un equipo de investigadores, insertar los puntos cuánticos en un bosque de nanocables, promete brindar una mejora significativa.

Los sistemas fotovoltaicos basados en diminutos puntos cuánticos coloidales tienen varias ventajas potenciales respecto a otros enfoques para crear células solares: Los puntos cuánticos se pueden fabricar mediante un proceso que funciona a temperatura ambiente, ahorrando energía y evitando complicaciones asociadas al procesamiento a alta temperatura del silicio y otros materiales tradicionalmente usados en sistemas fotovoltaicos. Los puntos cuánticos se pueden crear a partir de materiales baratos y abundantes que no requieren una purificación notable, como sí la necesita el silicio. Y es factible aplicar puntos cuánticos a una amplia gama de materiales baratos e incluso flexibles para substratos, como por ejemplo plásticos ligeros.

Sin embargo, al diseñar estos dispositivos, surge un conflicto grave. Existen dos necesidades contradictorias para obtener un sistema fotovoltaico eficaz: Se necesita que la capa absorbente de una célula solar sea delgada para que permita que las cargas pasen con facilidad de los sitios donde se absorbe la energía solar hasta los cables que trasmiten la corriente. Pero también se necesita que sea lo bastante gruesa como para absorber la luz de manera eficiente. Mejorar el rendimiento en una de estas áreas tiende a empeorar el de la otra.

Ahí es donde puede ser útil añadir nanocables de óxido de zinc. Estos nanocables tienen la conductividad suficiente para extraer cargas con facilidad, y son lo bastante largos como para brindar la profundidad necesaria para la absorción de la luz. Así lo ha demostrado el equipo de Joel Jean, Moungi Bawendi, Silvija Gradecak y Vladimir Bulovic, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos.

Un conjunto de nanocables de óxido de zinc. (Imagen: Cortesía de Jean, et al. / Advanced Materials)

El resultado es un aumento del 50 por ciento en la corriente generada por la célula solar, y un aumento del 35 por ciento en la eficiencia general. Una ventaja de los sistemas fotovoltaicos basados en puntos cuánticos es que se les puede ajustar para que absorban luz con un rango mucho más amplio de longitudes de onda que el de los dispositivos convencionales.

Ésta es una demostración preliminar de un principio que, mediante un mejor conocimiento de los detalles de funcionamiento del mismo, así como posteriores optimizaciones, puede llevarnos a nuevos tipos prácticos y baratos de dispositivos fotovoltaicos, tal como valora el equipo de Jean.

En el trabajo de investigación y desarrollo también han intervenido Sehoon Chang, Patrick Brown, Jayce Cheng y Paul Rekemeyer.

Técnica innovadora para fabricación a gran escala de microsupercondensadores

Aunque la demanda de dispositivos electrónicos cada vez más pequeños ha estimulado la miniaturización de diversas tecnologías, un área se ha quedado atrás en esta revolución de miniaturización: Las unidades de almacenamiento de energía, como baterías y condensadores.

Ahora, el equipo de Richard Kaner y Maher El-Kady, del Instituto de NanoSistemas de California, dependiente de la Universidad de California en Los Ángeles (UCLA), podría haber comenzado a cambiar la situación.

Estos investigadores han desarrollado una novedosa técnica que utiliza una grabadora de DVDs para fabricar supercondensadores micrométricos hechos de grafeno. Los supercondensadores son dispositivos con velocidades de carga y descarga de cientos a miles de veces más rápidas que las de las baterías convencionales.

Estos microsupercondensadores, hechos de una capa de carbono grafítico de un átomo de espesor, pueden ser fabricados con facilidad e integrados sin problemas en dispositivos pequeños cuyo funcionamiento debe ser del todo fiable, como por ejemplo marcapasos de la próxima generación.

Los microsupercondensadores de Kaner y El-Kady. (Foto: UCLA)

Los métodos tradicionales para la fabricación de microsupercondensadores requieren técnicas litográficas muy laboriosas que han demostrado ser difíciles para la construcción de dispositivos económicos, lo cual limita su aplicación comercial. En vez de intentar hacer progresos por esa vía, el equipo de Kaner y El-Kady usó una grabadora de DVDs común, de tipo doméstico, una LightScribe concretamente, para producir microsupercondensadores de grafeno en grandes áreas, a una fracción del costo de los dispositivos tradicionales.

Usando esta técnica, los investigadores han conseguido producir más de 100 microsupercondensadores en un solo disco en menos de 30 minutos, usando materiales de bajo costo.

El nuevo y económico método de fabricación se muestra prometedor para la producción en masa de estos supercondensadores, los cuales probablemente transformen la electrónica y otros campos.

La impresora de estructuras microscópicas en 3D más veloz del mundo

Nanoscribe GmbH, una compañía fundada para comercializar las creaciones del Instituto Tecnológico de Karlsruhe, en Alemania, ha presentado la impresora en 3D de micro y nanoestructuras más rápida del mundo.

Con esta impresora es posible fabricar objetos tridimensionales tremendamente pequeños, a menudo menores que el diámetro de un cabello humano, con un consumo mínimo de tiempo y una resolución máxima. La impresora se basa en un novedoso método de litografía láser.

Por medio del nuevo método de litografía láser, la velocidad de impresión se incrementa en un factor de casi 100.

Los sistemas de litografía láser 3D desarrollados por Nanoscribe son usados para trabajos de investigación por el Instituto Tecnológico de Karlsruhe y por científicos de todas partes del mundo, con especial atención dentro del campo de la fotónica.

El tiempo consumido para fabricar por impresión 3D una maqueta miniaturizada de nave espacial ha quedado reducido a menos de un minuto, y sin pérdida de calidad, gracias al nuevo sistema. (Foto: Nanoscribe)

Las principales líneas de investigación dentro del área de la fotónica se dirigen a sustituir la electrónica convencional por circuitos ópticos de mayor eficiencia. A tal fin, se utilizan los sistemas de Nanoscribe para imprimir guías poliméricas de ondas que alcanzan tasas de transferencia de datos de más de 5 terabits por segundo.

Otro de los sectores donde esta tecnología será útil es el de las biociencias, con aplicaciones tales como los andamios destinados a servir de soporte para el crecimiento de células. Otro sector destacado es el de los materiales con estructuras muy trabajadas a escala nanométrica.

Entre los clientes de Nanoscribe hay universidades, otros centros de investigación, y empresas.

Un trabajo abre una nueva vía para manipular bits cuánticos y transferir información con eficiencia
Un equipo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC), en España, en colaboración con el National Research Council of Canada, ha medido y analizado por primera vez un fenómeno denominado bloqueo de espín en el transporte electrónico a través de un circuito de tres puntos cuánticos, o átomos artificiales, acoplados entre sí. El trabajo, publicado en la revista Nature Nanotechnology, abre una nueva vía para la manipulación de bits cuánticos, los componentes básicos de los ordenadores del futuro, y para la transferencia eficiente de información entre dos regiones distantes.

Los electrones no sólo poseen carga, sino también otra propiedad que se manifiesta en dispositivos extremadamente pequeños, que requieren de la mecánica cuántica para ser descritos: el espín. "Se trata de una propiedad que define el estado del electrón. Uno puede imaginarse un electrón con el espín apuntando hacia arriba, girando en el sentido de las agujas del reloj y, por el contrario, con el espín hacia abajo, girando en el sentido contrario a las mismas", explica la investigadora del CSIC Gloria Platero, que trabaja en el Instituto de Ciencia de Materiales de Madrid.

De acuerdo con el principio de exclusión de Pauli, una ley fundamental de la mecánica cuántica enunciada por Wolfgang Ernst Pauli en 1925, dos electrones no pueden tener números cuánticos iguales, que son los que definen su estado. En este trabajo, esto se traduce en que no pueden tener los espines apuntando en la misma dirección en un mismo punto cuántico.

Figura que muestra la corriente a través de tres puntos cuánticos, en un campo magnético de 0.2 Teslas en las dos direcciones del voltaje. (Imagen: CSIC)

Platero precisa: "Por tanto, si hay un electrón con espín hacia arriba en un átomo o punto cuántico de la cadena, otro electrón situado en el átomo vecino con el espín hacia arriba no puede pasar al primero y se queda bloqueado en el punto cuántico en el que se encuentra inicialmente. Este fenómeno se denomina bloqueo de espín y provoca que la corriente electrónica a través de la cadena de puntos cuánticos decrezca abruptamente y deje de fluir a través del circuito".

Los científicos han estudiado este fenómeno a través de tres puntos cuánticos y han observado que el efecto es además bipolar, ya que ocurre cuando se aplica un voltaje a ambos extremos de la cadena en un sentido o en el inverso. La interrupción de la corriente debido al bloqueo de espines permite manipular los bits cuánticos confinados en estos sistemas, una manipulación potencialmente más versátil y rica que en otros estudiados en trabajos previos.

La investigación abre nuevos horizontes para su potencial aplicación en la computación e información cuántica. "Otra propiedad sorprendente es que, en este circuito, los electrones se transfieren entre los extremos sin ocupar la región intermedia gracias a una propiedad fundamental de la mecánica cuántica: la coherencia cuántica", indica la investigadora del CSIC.

Según el equipo español implicado en el trabajo, los resultados son un primer paso para diseñar y analizar el transporte electrónico a través de cadenas de más de tres puntos cuánticos. Las potenciales aplicaciones tendrían proyección, no sólo en campos como la información y computación cuánticas, sino también en la espintrónica, donde el espín, en lugar de la carga, es el que determina las propiedades del circuito nanoelectrónico.

"Hemos demostrado que es posible transportar electrones de un extremo a otro sin ocupar la región intermedia en sistemas de dimensión nanométrica. Los procesadores cuánticos, que requieren mantener intacta la transferencia de datos a largas distancias, podrían llegar a beneficiarse de este estudio", resaltan los investigadores. (Fuente: CSIC/DICYT)

Transformador eléctrico de tamaño nanométrico

Se ha logrado ensamblar capas atómicas individuales unas sobre otras en la sucesión deseada, de tal modo que la estructura nanométrica resultante funciona como un transformador eléctrico.

El equipo de Leonid Ponomarenko y Andre Geim (galardonado con un Premio Nobel), en la Universidad de Manchester en el Reino Unido, usó cristales individuales de un átomo de espesor para construir la estructura multicapa.

Los científicos usaron el grafeno como un plano conductor de un átomo de espesor, mientras que bastaron cuatro capas atómicas de nitruro de boro para lograr un aislante eléctrico.

El grafeno, aislado por primera vez en la Universidad de Manchester en el 2004, tiene potencial para revolucionar diversas aplicaciones, incluyendo los smartphones, la transmisión ultrarrápida de banda ancha, la administración de medicamentos en puntos muy precisos del cuerpo, y chips de ordenador. Al grafeno se le considera capaz de reemplazar a materiales comunes de la industria electrónica como por ejemplo el silicio, pero el equipo de Ponomarenko y Geim cree que su utilidad será aún mayor para nuevos dispositivos y materiales que aún no han sido inventados.

Estructura multicapa con grafeno. (Foto: U. Manchester)

En el transformador de tamaño nanométrico, los electrones que se mueven en una capa metálica arrastran a los electrones de una segunda capa metálica usando sus campos eléctricos locales. Para trabajar con este fenómeno, las capas metálicas necesitan estar aisladas eléctricamente unas de otras, pero separadas por no más de algunas distancias interatómicas.

Estas nuevas estructuras hechas a base de capas con el grosor de un átomo podrían algún día establecer los fundamentos para una nueva gama de dispositivos electrónicos y fotónicos complejos que no podrían fabricarse con ningún otro material existente, lo que incluye varias nuevas arquitecturas para transistores y detectores.

El nanotransformador fue ensamblado por Roman Gorbachev, de la Universidad de Manchester.

Aparte del grafeno, hay muchos materiales potencialmente utilizables en forma de láminas con el grosor de un átomo. Combinándolos, es posible crear nuevos materiales que no existen en la naturaleza. "Este camino promete volverse mucho más emocionante que el propio grafeno", valora Geim

Nanorresonadores para mejorar la calidad de la telefonía móvil


En bastantes partes del mundo, no hay suficiente espectro de radio para dar soporte a todos los teléfonos móviles (o celulares) y demás dispositivos portátiles de la gente del lugar. El congestionamiento provoca la interrupción de llamadas, señales de ocupado, menor calidad de las llamadas, y descargas más lentas en el caso de conexiones a internet.

Para contrarrestar este problema, el sector de las telecomunicaciones está tratando de construir sistemas que operen con canales más claramente definidos, para que mayor cantidad de canales puedan repartirse el ancho de banda disponible.

Para esto, se necesitan filtros más precisos para teléfonos móviles y otros dispositivos de radio. Tales filtros deben ser sistemas que rechacen el "ruido" y permitan que pasen sólo las señales cercanas a una frecuencia dada.

El equipo de Jeffrey Rhoads, Saeed Mohammadi y Hossein Pajouhi, de la Universidad Purdue, en West Lafayette, Indiana, Estados Unidos, ha dado ahora con un método para fabricar en grandes cantidades diminutos dispositivos mecánicos que podrían ayudar a que los usuarios de teléfonos móviles se libren de las molestias provocadas por las interrupciones de llamadas y las descargas lentas. Los dispositivos están diseñados para aliviar la congestión de las ondas radiales y mejorar así el rendimiento de teléfonos móviles y otros aparatos portátiles.

Estos nuevos dispositivos son resonadores nanoelectromecánicos, y contienen una diminuta "viga" de silicio que vibra cuando se le aplica una corriente.

Esquema de un nanorresonador. (Foto: Purdue University)

Se ha demostrado que los nanorresonadores controlan sus frecuencias de vibración mejor que otros resonadores. Estos dispositivos podrían reemplazar componentes electrónicos convencionales para lograr una mayor eficiencia y un menor consumo de energía.

Además de su uso como futuros filtros para teléfonos móviles, esos nanorresonadores también podrían ser utilizados para sensores biológicos y químicos avanzados en aplicaciones médicas y de seguridad nacional, y posiblemente como componentes de ordenadores y otros dispositivos electrónicos.

Los resonadores pueden ser integrados con facilidad a sistemas y circuitos electrónicos, porque su técnica de fabricación es compatible con la tecnología CMOS, muy común en los chips.

En el trabajo de investigación y desarrollo también han intervenido Lin Yu y Molly Nelis

Un paso hacia los motores moleculares artificiales

Un estudio publicado en Science demuestra que es posible usar la energía del movimiento de una molécula de hidrógeno para mover una máquina mecánica. El descubrimiento abre la puerta a la posibilidad de desarrollar motores moleculares que extraigan energía de esa manera.

Procesos como el movimiento de los fluidos, la intensidad de las señales electromagnéticas y la composición química están sujetos a fluctuaciones aleatorias que se conocen como ruido. Se sabe que se puede recolectar la energía procedente de este ruido, ya que en la naturaleza se dan procesos en los que eso ocurre.

Ahora, un equipo de científicos liderados por el español José Ignacio Pascual, responsable del grupo de nanoimagen del centro nanoGUNE de San Sebastián, ha descubierto que el movimiento aleatorio –el ruido– de una molécula de hidrógeno puede causar el movimiento periódico de un oscilador mecánico.

"Esto significa que la molécula más pequeña posible, la de hidrógeno, está 'empujando' un oscilador diez trillones de veces más masivo", explica Pascual.

El experimento se desarrolló encerrando la molécula en el pequeño espacio entre una superficie plana y la punta afilada de un microscopio de fuerza atómica. Este microscopio utiliza el movimiento periódico de una punta situada en el extremo de un oscilador mecánico muy sensible. El movimiento aleatorio de la molécula ejerce fuerza contra la punta, haciendo que oscile.

La oscilación de la punta, a su vez, modula el movimiento de la molécula de hidrógeno. Esto da lugar a una 'danza' sincronizada de ambas, en la que la punta se mueve en su oscilación a distancias más largas que el tamaño de la molécula, usando la energía extraída del ruido.

Para inducir el movimiento de la molécula de hidrógeno, Pascual señala que "se hicieron pasar corrientes eléctricas a través de la molécula", y añade que nada hace pensar que no pudieran usarse "otras fuentes de energía para generar estas fluctuaciones, como por ejemplo la luz".

Según Felix von Oppen, otro de los autores del trabajo, "un aspecto prometedor de los resultados es que podrían ser considerados en el diseño de motores moleculares artificiales que extraerían la energía de ambientes con ruido". (Fuente: SINC)

Nanofibras de plástico que se autoensamblan y conducen electricidad casi tan bien como el cobre

Se ha conseguido fabricar con éxito fibras de plástico altamente conductoras que tienen sólo varios nanómetros de espesor. Además, estos nanohilos se autoensamblan en un proceso que es activado por un destello de luz.

Baratas y fáciles de manejar, a diferencia de los nanotubos carbono, las nuevas nanofibras de plástico combinan las ventajas de dos clases de materiales capaces de conducir la corriente eléctrica: los tradicionales metales y los innovadores plásticos de polímeros orgánicos. De hecho, sus notables propiedades eléctricas son muy similares a las que presentan los metales.

Además, son ligeras y flexibles como muchos de los plásticos convencionales, lo que abre la posibilidad de superar uno de los desafíos más importantes de la electrónica del siglo XXI: la miniaturización de los componentes en la escala nanométrica.

Estos asombrosos nanohilos de plástico son obra de científicos del Centro Nacional francés para la Investigación Científica (CNRS, por sus siglas en francés) y la Universidad de Estrasburgo, en Francia.

Estas fibras reúnen por tanto lo mejor de cada clase de materiales. Son muy ligeras y flexibles, y al mismo tiempo capaces de transportar densidades de corriente extraordinarias, casi tanto como las que soporta el cobre.

Representación artística de nanofibras. (Foto: M. Maaloum, ICS (CNRS))


El próximo paso del equipo de investigación, dirigido por Nicolas Giuseppone y Bernard Doudin, es demostrar que estas fibras pueden ser usadas a escala industrial para fabricar dispositivos electrónicos miniaturizados, como por ejemplo pantallas flexibles, células solares, transistores y nanocircuitos impresos.

Somos capaces de hacer dispositivos electrónicos más pequeños que un virus

Nanopartículas que sirven para repeler el agua o nanotubos de carbono utilizados para fabricar elementos fuertes de poco peso. De acuerdo con el físico Javier Mateos, profesor de Electrónica del Departamento de Física Aplicada de la Universidad de Salamanca, en España, estos son sólo dos ejemplos de las aplicaciones prácticas que la Nanotecnología ha desarrollado en la actualidad.

"Esta tecnología agrupa a todos aquellos campos de la Ciencia que tienen el nexo común de trabajar con cosas muy pequeñas, involucra a disciplinas tan diversas como la Medicina, la Química, la Electrónica, la Fotónica o la Biología", señaló el especialista en declaraciones a DiCYT.

La Nanotecnología también es comprendida como la manipulación controlada de átomos y moléculas para producir materiales, sustancias y dispositivos en niveles muy pequeños. Su unidad de medida es el nanómetro, el cual equivale a una milmillonésima parte de un metro, es decir, 10 -9 metros. "Para hacernos una idea, su tamaño es más pequeño que un glóbulo rojo o un cabello humano", comenta. Por otra parte, un nanómetro es el ancho de una molécula de ADN y veintidós nanómetros es el tamaño de los transistores que se usan en la actualidad para elaborar los CPU de los ordenadores o las memorias USB.

Precisamente, estos últimos son los elementos que utilizan para realizar sus investigaciones, los científicos del equipo de trabajo del cual forma parte Mateos. "Nosotros pretendemos desarrollar circuitos, transistores y dispositivos que vayan más rápido, intentamos obtener sus características y optimizar su diseño, tratando de que tengan menos ruido electrónico y funcionen mejor. Como no tenemos la posibilidad de fabricar este tipo de dispositivos, nuestro grupo de investigación lo que hace es modelización, es decir, procesos de simulación por medio del ordenador", afirma.

Javier Mateos, investigador del Departamento de Física Aplicada de la Universidad de Salamanca. (Foto: DiCYT)

Para este investigador, la Electrónica es un área de gran aplicabilidad e interés para la Nanotecnología, ya que ha facilitado el desarrollo de circuitos y transistores mucho más pequeños que han cambiado la forma en que utilizamos actualmente los ordenadores. En los últimos 20 a 30 años, los estudios nanotecnológicos han avanzado en la visión práctica de estas tecnologías, desarrollando aplicaciones tan relevantes como la Nanoelectrónica.

La Nanoelectrónica ha vivido un proceso de desarrollo continuo en el cual se han ido reduciendo el tamaño de los dispositivos. Incluye la electrónica de hace 50 años, en la cual los dispositivos poseían tamaños del orden de los milímetros, transitando por la Microelectrónica hasta alcanzar finalmente niveles nanométricos. Gracias a la Nanoelectrónica "somos capaces de hacer dispositivos electrónicos más pequeños que un virus. Los virus hace nada no se podían ver, no se podía saber cómo eran, mientras que ahora somos capaces de hacer estructuras aún más pequeñas", comentó el especialista.

Actualmente, Mateos se encuentra involucrado en un proyecto europeo en el que su grupo es el coordinador. Dicho proyecto está orientado al uso de terahercios, un tipo de ondas que se encuentran entre los rayos x y los rayos visibles, empleados en la fabricación de sistemas técnicos que permitan la visibilidad entre las paredes o tejidos. Como España no cuenta con las condiciones para la producción de este tipo de dispositivos, su equipo se encarga de desarrollar la parte teórica del proyecto, mientras que cuatro laboratorios europeos que actúan como contraparte, se dedican a implementar sus posibles procesos de producción.

En un futuro no muy lejano, la investigación en Nanotecnología abrirá la puerta a un número infinito de utilidades, aunque algunas de ellas por ahora son ciencia ficción. Sin embargo es sólo cuestión de tiempo para que sean una realidad. Gracias a estas aplicaciones, se espera desarrollar nanomateriales que puedan monitorizar la temperatura del cuerpo, nanosensores que se implanten debajo de la piel para identificar cuerpos extraños e instrumentos nanométricos que permitan detectar enfermedades. Todos ellos tan pequeños que serían menos invasivos y molestos para las personas, explicó el especialista. (Fuente: SICE/ACV/DICYT

La unidad de almacenamiento magnético de datos más pequeña del mundo

Se ha conseguido construir la unidad de almacenamiento magnético de datos más pequeña del mundo. Usa sólo 12 átomos por bit, la unidad básica de la información digital, y almacena un byte completo (de 8 bits) dentro de una cantidad ínfima de materia: tan sólo 96 átomos. En comparación, una unidad de disco duro moderna necesita más de 500 millones de átomos por byte.

La proeza tecnológica es obra de un equipo de científicos de IBM y el Centro Alemán para la Ciencia del Láser de Electrones Libres (CFEL)

Esta singular unidad de almacenamiento de datos se construyó átomo por átomo con la ayuda de un microscopio de Efecto Túnel en el Centro de Investigación de Almaden de IBM, en San José, California.

El equipo de Sebastian Loth del CFEL y Andreas Heinrich de IBM construyó los patrones regulares de átomos de hierro, alineándolos en filas de seis átomos cada una. Dos filas son suficientes para almacenar un bit. Un byte, a su vez, consta de ocho pares de filas de átomos. Usa sólo un área de 4 por 16 nanómetros. Esto corresponde a una densidad de almacenamiento que es cien veces superior a la de una unidad de disco duro moderna.

Los datos son escritos y leídos en la unidad nanométrica de almacenamiento con la ayuda de un microscopio de Efecto Túnel. (Foto: © Sebastian Loth)

Los datos son escritos y leídos en la unidad nanométrica de almacenamiento con la ayuda de un microscopio de Efecto Túnel. Los pares de filas de átomos tienen dos posibles estados magnéticos, representando los dos valores, 0 y 1, de un bit clásico. Un pulso eléctrico de la punta del microscopio de Efecto Túnel invierte la configuración magnética. Un pulso más débil permite leer la configuración, aunque actualmente el "cabezal" de lectura sólo es estable a una temperatura muy fría: 268 grados centígrados bajo cero

Transistor de un solo átomo y plenamente operativo

En una espectacular proeza de la microingeniería, un equipo de físicos ha fabricado un transistor, plenamente operativo, que consta de un único átomo, ubicado con precisión sobre un cristal de silicio.

Este diminuto dispositivo electrónico usa como su componente activo un átomo individual de fósforo ubicado entre puertas de control de tipo electroestático y electrodos de tamaño atómico.

La alta precisión sin precedentes lograda en este diseño podría ser decisiva para emprender la construcción de la primera computadora cuántica plenamente operativa.

Hasta ahora, los transistores hechos de un solo átomo se habían obtenido básicamente por azar. Los investigadores hacían muchos intentos, y de entre todas las unidades creadas seleccionaban la que hubiera quedado bien ajustada.

Un transistor de un solo átomo. (Foto: UNSW)
En cambio, el nuevo transistor es perfecto porque así ha sido diseñado, tal como subraya Michelle Simmons de la Universidad de Nueva Gales del Sur en Australia. En otras palabras, ésta es la primera vez que se consigue controlar a voluntad con este nivel de precisión la colocación de un átomo individual sobre un substrato para crear un transistor del todo operativo.

El dispositivo tiene incluso pequeños marcadores grabados en su superficie para que los investigadores puedan conectar contactos metálicos y aplicar un voltaje.

El equipo de Simmons y Martin Fuechsle usó un microscopio de Efecto Túnel (microscopio STM) para ver y manipular átomos en la superficie del cristal dentro de una cámara de vacío.

Las propiedades electrónicas del dispositivo concuerdan perfectamente con las predichas desde el campo teórico para un transistor formado por un solo átomo de fósforo.

En la investigación también han trabajado el grupo de Gerhard Klimeck en la Universidad Purdue de Estados Unidos, y el grupo de Hollenberg en la Universidad de Melbourne en Australia, además de Oliver Warschkow de la Escuela de Física en la Universidad de Sídney, Australia


Ordenadores Cuánticos
Un sólo ordenador cuántico sería como millones normales







La física cuántica ha permitido al físico austríaco Erwin Schrödinger contar la historia de un gato que moría solo con mirarle y ha sustentado la hipótesis de que la observación del cosmos puede haber acelerado su desaparición. Sus predicciones son tan extrañas que el propio Einstein no creía que pudiesen ser ciertas. Sin embargo, esta extraña disciplina funciona y es real, y promete ordenadores extremadamente potentes que pueden cambiar el mundo.


Erwin Schrödinger


Ignacio Cirac (Manresa, 1965), que acaba de recibir junto al investigador de la Universidad de Innsbruck (Austria) Peter Zoller el Premio Fundación BBVA Fronteras del Conocimiento "por su trabajo en la ciencia de la información cuántica", es uno de los investigadores que más han aportado para intentar domeñar ese universo.

«Una información codificada con física cuántica sería segura frente a los hackers»

¿Cómo es posible que una ciencia que predice un mundo tan subjetivo, en el que algo no existe hasta que una persona toma conciencia de su existencia, puede llegar a ser práctica y utilizada de una forma universal?

Eso es lo curioso, pero es lo que ha pasado en la historia de la ciencia. En principio, uno tiene curiosidad, descubre algo, dice "qué raro es", y después vienen otras personas que vuelven a estudiarlo y se dan cuenta de que eso tan raro sirve para hacer cosas extraordinarias, que no se podían hacer con las leyes usuales. Y aquí pasa lo mismo. Con algo muy extraño de la naturaleza, se pueden hacer cosas útiles.

¿Por ejemplo?
«Aún no dominamos el mundo microscópico como para hacer ordenadores cuánticos»

Se puede utilizar para comunicar mensajes secretos. De alguna forma, cuando alguien envía un mensaje secreto empleando la física cuántica, si una persona no autorizada lo quiere leer, lo mira y destruye la información. No hay forma de interceptar esa comunicación.

Tendría que saber cómo mirar, para no destruir el objeto.

Sí, aprovechando unas propiedades extrañas de la física cuántica, sabría que, mirando de una forma adecuada, puede observarlo sin destruirlo. Por un lado, permitiría ver si alguien no autorizado está mirando, porque en ese caso el mensaje se destruiría, y eso ya te da una información y, por otro, sólo deja mirar a la persona autorizada.



«Científicos como Einstein no creían que la naturaleza fuese tan extraña»

¿Ha sido posible lograr avances prácticos, más allá del campo estrictamente teórico?

La física cuántica es una teoría muy vieja, fue descubierta hace 100 años, pero algunos aspectos de la teoría cuántica eran tan oscuros que mucha gente, como el propio Einstein, no se los creía, porque decían que la naturaleza no podía ser tan extraña. Pero desde hace unos 20 años, el desarrollo tecnológico ha permitido comprobar y verificar muchos de estos fenómenos, y ahora ya estamos seguros de que son reales. Ahora puede haber unos 100 laboratorios en todo el mundo que están trabajando con estas leyes.

¿Puede mencionarme alguna aplicación concreta?

Dentro del campo de la comunicación, está muy desarrollada e incluso existe alguna compañía que vende sistemas cuánticos para este fin; se están haciendo experimentos con satélites para transmitir mensajes vía satélite.

¿Cómo afectaría la aplicación de los fenómenos cuánticos a la gestión de la información?

Un ordenador cuántico procesaría la información con las leyes de la física cuántica y eso hace que gane en eficiencia. Cálculos grandes y complejos se podrían hacer de una manera mucho más eficiente. Es como si se procesase a la vez, en paralelo. Con un sólo ordenador, es como si tuvieses millones, esa es un poco la idea. La física cuántica permite propiedades físicas que toman distintos valores a la vez y eso es lo que el ordenador cuántico aprovecha para poder hacer cálculos extraordinarios. Pero aún no tenemos ningún ordenador cuántico.

También han realizado experimentos de teletransporte.

Hemos desarrollado algunas teorías y hecho trabajos conjuntamente con otros grupos en los que las propiedades de un objeto desaparecen de un lugar y aparecen en otro. Por ejemplo, las propiedades de unos fotones, de alguna forma, se esfuman de la luz y aparecen en un conjunto de átomos que está a un metro y medio de distancia.

¿Es algo similar a lo que se hizo en Canarias, donde se teletransportó información entre Tenerife y La Palma?

La utilidad de ese experimento está más orientada hacia la criptografía. Para hacer criptografía, se necesita enviar fotones de un sitio a otro y los fotones se absorben. Eso no nos permite llegar a largas distancias. Los equipos que venden algunas compañías funcionan para cinco o seis kilómetros de distancia. Para enviar información cuántica por cable sin que esos fotones desaparezcan, son necesarios repetidores cuánticos que envían un poco de información a una distancia pequeña y luego teletrasportan una propiedad allí, luego teletransportan otro cantidad y vuelven a enviar. De esta forma, se puede evitar la absorción de fotones.

¿Empleando el teletransporte, sería posible enviar información más rápido que la luz?

Está prohibido por la física enviar información más rápido que la luz, tendría unas consecuencias terribles; está prohibido. Lo que se puede hacer es enviar información de una manera tan secreta que ni el mejor hacker pueda descifrarla y de forma mucho más eficiente. Se puede enviar mucha más información en menos pasos y se puede comprimir la información.

¿Cuáles son los obstáculos que impiden pasar de la teoría a la práctica para construir un ordenador cuántico?

El problema fundamental para construir ordenadores cuánticos es que tenemos que dominar el mundo microscópico. Por ahora podemos hacer experimentos para probar nuestras teorías con cinco átomos o diez. Para construir un ordenador cuántico, necesitaríamos 10.000, 100.000 o un millón. Y eso es un paso muy grande. Es un problema experimental y tecnológico, hay que desarrollar una tecnología para dominar ese mundo. Por ahora, no somos capaces de hacerlo.

—————

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista.

La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

Origen de la computación cuántica

A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en un espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se han llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en punto flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).

Problemas de la computación cuántica

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.

Hardware para computación cuántica

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.

Condiciones a cumplir

* El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
* Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).
* El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
* Ha de poder leerse el estado final del sistema, tras el cálculo.
* El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.

Candidatos

* Espines nucleares de moléculas en disolución, en un aparato de RMN
* Flujo eléctrico en SQUIDs
* Iones suspendidos en vacío
* Puntos cuánticos en superficies sólidas
* Imanes moleculares en micro-SQUIDs
* Computadora cuántica de Kane

Procesadores

En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.

Transmisión de datos

Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.

Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.

Software para computación

Algoritmos cuánticos

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.

* Algoritmo de Shor
* Algoritmo de Grover
* Algoritmo de Deutsch-Jozsa

Modelos

* Computadora cuántica de Benioff
* Computadora cuántica de Feynman
* Computadora cuántica de Deutsch

Complejidad

La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error.

Problemas propuestos

Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:

* Factorización de números enteros
* Logaritmo discreto
* Simulación de sistemas cuánticos

Cronología

Años 80

A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

1981 – Paul Benioff

Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.

1981-1982 Richard Feynman

El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el "First Conference on the Physics of Computation" realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de "Simulating Physics With Computers" proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.

1985 – David Deutsch

Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.

Años 90

En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.

1993 – Dan Simon

Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).

1993 – Charles Benett

Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

1994-1995 Peter Shor

Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.

1996 – Lov Grover

Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.

1997 – Primeros experimentos

En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. El primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 – 1999 Primeros Qbit

Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

Año 2000 hasta ahora

2000 – Continúan los progresos

De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 – El algoritmo de Shor ejecutado

IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.

2005 – El primer Qbyte

El Instituto de "Quantum Optics and Quantum Information" en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 – Mejoras en el control del cuanto

Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 – D-Wave

La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit. Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.

2007 – Bus cuántico

En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.

2008 – Almacenamiento

Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este peridodo puede ser expandible mediante métodos de correccion de errores, por lo que es un gran avance en el almacenamiento de información.

2009 – Procesador cuántico de estado sólido

El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 desarrollaron el Bus cuántico, crean el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente.

——————–

Los ordenadores cuánticos llegarán mucho antes de lo previsto

Computación CuánticaHace décadas que científicos, ingenieros y medios de comunicación hablan de los ordenadores cuánticos, del enorme poder de computación que tendrán y de que serán capaces de realizar cálculos hoy en día inabordables, pero lo cierto es que los años han ido pasando y el silicio se ha seguido manteniendo como la punta de lanza indiscutible de los sectores de la informática, la electrónica y la microelectrónica. Este reinado, eso sí, podría llegar a su fin en los próximos años.

El poder de los computadores cuánticos reside en la extraña manera en que la materia se comporta a nivel subátomico. A esa escala, las partículas como los electrones se rigen por leyes que no responden a la física normal. Tanto es así, que en el mundo cuántico una partícula puede estar en dos lugares al mismo tiempo. Es más, puede estar en dos estados diferentes a la vez, ya sea como partícula o como onda.

Los ordenadores actuales trabajan con bits, que pueden tener un valor de 0 ó 1. En cambio, en la computación cuántica intervienen las leyes de la mecánica cuántica y la partícula puede estar en superposición coherente: es decir, puede ser 0 ó 1 pero puede ser también un 0 y un 1 al mismo tiempo. Tal circunstancia permite que se puedan realizar varias operaciones a la vez, según el número de qubits (bits cuánticos).

Os pongo un ejemplo muy sencillo para que veáis la potencia que tendrá la computación cuántica: en la actualidad, en un registro de 2 bits tenemos hasta 4 valores posibles (00, 01, 10, 11) pero sólo podemos utilizar uno de esos valores al mismo tiempo para realizar una operación. En cambio, si tenemos un vector de 2 qubits, la partícula puede tomar los 4 valores distintos a la vez.

De la misma manera, si tuviéramos un registro de 3 bits tendríamos 8 valores posibles (000, 001, 010, 011, 100, 101, 110, 111) pero seguiríamos pudiendo coger uno sólo, mientras que en el caso de los qubits tendríamos la posibilidad de trabajar con los 8 al mismo tiempo gracias a la superposición cuántica.

Un hipotético computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (1012 operaciones en punto flotante por segundo). Una enormidad si tenemos en cuenta que los microprocesadores más avanzados de la actualidad corren a "apenas" unos cuantos gigaflops (109 operaciones por segundo). Como veis, el poder de computación de los ordenadores cuánticos será bestial.

Los datos son impresionantes, pero… ¿cuándo se empezarán a comercializar los primeros computadores cuánticos? Anton Zeilinger, un físico cuántico de la Universidad de Viena, es de la opinión que muy pronto. Los avances logrados en los últimos tiempos han llevado a este investigador a afirmar que en 20 años utilizaremos los ordenadores cuánticos en nuestro día a día de manera habitual.

De la misma opinión es David Deutsch, un físico de la Universidad de Oxford, que, al igual que Zeilinger, no hace tanto pensaba que deberíamos esperar un número indeterminado de años para ver ordenadores cuánticos en funcionamiento, pero que ahora ha cambiado de forma de pensar y cree que en sólo unos años podremos contemplar los primeros modelos comerciales.

Así pues, si ambos investigadores están en lo cierto, los primeros ordenadores cuánticos estarán disponibles mucho antes de lo que podíamos imaginar. Será cuestión de comprobar entonces si su capacidad de cálculo es realmente tan descomunal como se muestra sobre el papel.

Los ordenadores cuánticos llegarán mucho antes de lo previsto

Hace décadas que científicos, ingenieros y medios de comunicación hablan de los ordenadores cuánticos, del enorme poder de computación que tendrán y de que serán capaces de realizar cálculos hoy en día inabordables, pero lo cierto es que los años han ido pasando y el silicio se ha seguido manteniendo como la punta de lanza indiscutible de los sectores de la informática, la electrónica y la microelectrónica. Este reinado, eso sí, podría llegar a su fin en los próximos años.
El poder de los computadores cuánticos reside en la extraña manera en que la materia se comporta a nivel subátomico. A esa escala, las partículas como los electrones se rigen por leyes que no responden a la física normal. Tanto es así, que en el mundo cuántico una partícula puede estar en dos lugares al mismo tiempo. Es más, puede estar en dos estados diferentes a la vez, ya sea como partícula o como onda.
Los ordenadores actuales trabajan con bits, que pueden tener un valor de 0 ó 1. En cambio, en la computación cuántica intervienen las leyes de la mecánica cuántica y la partícula puede estar en superposición coherente: es decir, puede ser 0 ó 1 pero puede ser también un 0 y un 1 al mismo tiempo. Tal circunstancia permite que se puedan realizar varias operaciones a la vez, según el número de qubits (bits cuánticos).
Os pongo un ejemplo muy sencillo para que veáis la potencia que tendrá la computación cuántica: en la actualidad, en un registro de 2 bits tenemos hasta 4 valores posibles (00, 01, 10, 11) pero sólo podemos utilizar uno de esos valores al mismo tiempo para realizar una operación. En cambio, si tenemos un vector de 2 qubits, la partícula puede tomar los 4 valores distintos a la vez.
De la misma manera, si tuviéramos un registro de 3 bits tendríamos 8 valores posibles (000, 001, 010, 011, 100, 101, 110, 111) pero seguiríamos pudiendo coger uno sólo, mientras que en el caso de los qubits tendríamos la posibilidad de trabajar con los 8 al mismo tiempo gracias a la superposición cuántica.
Un hipotético computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (1012 operaciones en punto flotante por segundo). Una enormidad si tenemos en cuenta que los microprocesadores más avanzados de la actualidad corren a "apenas" unos cuantos gigaflops (109 operaciones por segundo). Como veis, el poder de computación de los ordenadores cuánticos será bestial.
Los datos son impresionantes, pero... ¿cuándo se empezarán a comercializar los primeros computadores cuánticos? Anton Zeilinger, un físico cuántico de la Universidad de Viena, es de la opinión que muy pronto. Los avances logrados en los últimos tiempos han llevado a este investigador a afirmar que en 20 años utilizaremos los ordenadores cuánticos en nuestro día a día de manera habitual.
De la misma opinión es David Deutsch, un físico de la Universidad de Oxford, que, al igual que Zeilinger, no hace tanto pensaba que deberíamos esperar un número indeterminado de años para ver ordenadores cuánticos en funcionamiento, pero que ahora ha cambiado de forma de pensar y cree que en sólo unos años podremos contemplar los primeros modelos comerciales.
Así pues, si ambos investigadores están en lo cierto, los primeros ordenadores cuánticos estarán disponibles mucho antes de lo que podíamos imaginar. Será cuestión de comprobar entonces si su capacidad de cálculo es realmente tan descomunal como se muestra sobre el papel

SuperConductores
Los conductores normales presentan pérdidas cuando circulan corrientes en su interior. Esto se debe a que la resistencia que poseen al paso de una corriente eléctrica, transforma parte de la energía eléctrica en energía térmica. Sin embargo, algunos materiales se comportan de forma extraña a muy bajas temperaturas. Estos materiales, denominados "superconductores", cuando son sometidos a una temperatura mayor que una cierta temperatura crítica (diferente para cada material) presentan alta resistencia, por lo general mucho mayor que un conductor normal y de esta manera decimos que el material se encuentra en su "estado normal". Por el contrario, por debajo de la temperatura crítica presentan un fenómeno en el cual la resistencia eléctrica disminuye rápidamente hasta llegar a cero, decimos entonces que el material se encuentra en su "estado superconductor". Otra de las propiedades que caracteriza a estos materiales es la expulsión de campo magnético en el estado de superconducción conocida más comúnmente como el Efecto Meissner. Esta última es la propiedad esencial del estado superconductor.


Cuando el material pasa del estado normal al estado superconductor, el cambio en la resistividad puede ser muy abrupto y se produce lo que en física se denomina "cambio de fase". Si miramos el material a una temperatura mayor que la crítica, encontraremos propiedades marcadamente distintas a las que veremos a temperaturas menores que la crítica.
Existen varios tipos de cambios de fase como por ejemplo el cambio de fase que se produce cuando enfriamos un recipiente con agua: si llegamos a enfriarlo lo suficiente (por debajo de 0ºC), veremos que el agua simplemente se congela. Las propiedades del agua a 25ºC y a -10ºC son claramente diferentes. Algo parecido ocurre en el cambio de fase superconductor, solo que las propiedades que cambian en la transición son propiedades eléctricas y magnéticas, y no propiedades estructurales como en el ejemplo del agua. Es más, para el caso de los metales que al enfriarlos se vuelven superconductores, se sabe que en la transición no hay cambio en la estructura cristalina ni en las propiedades elásticas del material.
Las propiedades que cambian en la transición del estado normal al estado superconductor son principalmente las propiedades magnéticas. En el estado superconductor puro prácticamente no hay penetración de flujo magnético en el material y los efectos termoeléctricos desaparecen.
Se han encontrado diferentes materiales que se vuelven superconductores por enfriamiento, cada uno a su temperatura crítica propia. Algunas temperaturas críticas son de apenas unos pocos grados Kelvin (recordar que 0ºK corresponde a -273ºC), implicando un esfuerzo tecnológico importante el acceder a tan bajas temperaturas; en los últimos años ha sido posible diseñar materiales cuyas temperaturas críticas rondan las decenas de grados Kelvin, lo que en cierta medida facilita su estudio y utilización.
Hay fundamentalmente dos razones por las que estos materiales despiertan tanto interés. La primera es de índole económica. Para hacer uso de las propiedades superconductoras de un material hay que enfriarlo por debajo de una temperatura crítica. Cuanto más baja sea la temperatura a la que se deba trabajar, mayores serán los costos de refrigeración. Si para alcanzar el estado de superconductividad debe operarse a temperaturas inferiores a los 20 K, es necesario emplear helio líquido. A temperaturas más altas se puede trabajar con hidrógeno, pero por encima de 80 K se puede usar aire líquido, uno de los materiales refrigerantes más baratos que existen. Cuando se superen ciertos inconvenientes de carácter técnico, los nuevos superconductores se podrán emplear a escala industrial sin mayores costos de refrigeración.

Pero hay una segunda razón por la que los físicos están interesados en estos materiales. Hoy, después de algo más de un año de trabajo, hay una generalizada convicción de que se está frente a un nuevo fenómeno físico. La teoría que consiguió explicar el comportamiento de lo que podemos llamar "superconductividad convencional", no puede hacerlo propio con la superconductividad a temperaturas tan altas. Los mecanismos que dan origen a la superconductividad en estos nuevos materiales son probablemente distintos a los conocidos. Si esto es así, los físicos se encuentran frente a un gran desafío: comprender y explicar a qué se debe la superconductividad de alta temperatura critica.
¿Para que se usa un Superconductor?

Posibles aplicaciones de los superconductores.
Antes de realizar una descripcion de los usos actuales y futuros de los superconductores les recomiendo que vean el siguiente video donde se realiza una interesante demostración del uso de los mismos en trenes magnéticos.
Super Tren Magnético!!!
Hasta ahora, la principal utilidad de un superconductor es la producción de campos magnéticos muy intensos (del orden de miles de veces del campo magnético del imán de la heladera). Estos campos tienen importantes aplicaciones en medicina (RMN), frenos magnéticos, aceleradores, etc. Por otro lado, los campos magnéticos intensos son necesarios para controlar los reactores de fusión nuclear, aún experimentales, que serían una forma alternativa de producción de energía no contaminante. Además, la posibilidad de tener materiales con resistencia nula permitiría almacenar eficientemente energía eléctrica.
La aplicación más importante por el momento es la producción de campos magnéticos, que se emplean, principalmente, en los laboratorios de física con fines de investigación. Dentro de la investigación en el campo de la física, también se utilizan electroimanes superconductores para generar campos magnéticos altamente estables, útiles en los estudios de la resonancia magnética nuclear y la microscopía electrónica de alta resolución. Son también utilizados en las cámaras de burbujas que sirven para la detección de partículas y que requieren campos magnéticos muy intensos.
Desde el punto de vista comercial, se cree que los motores y generadores superconductores tendrán enormes consecuencias en lo social y económico. También se desea utilizar electroimanes superconductores para la levitación de trenes de transporte de pasajeros o de carga y a menos que investigaciones futuras indiquen lo opuesto, parece que no existen problemas técnicos fundamentales con este sistema. Sin embargo, se requieren algunas innovaciones técnicas antes de poder completar un diseño comercial.
El descubrimiento de materiales superconductores cerámicos con una elevada temperatura crítica hace aún más atractiva la idea de la utilización de materiales superconductores para la transportación masiva (ver figura). Cuando menos ya no se requerirá enfriar a temperatura de helio líquido, bastará con la refrigeración que proporciona el nitrógeno líquido. Claro que aún sigue la búsqueda de materiales cerámicos superconductores de temperatura crítica superior a la temperatura ambiente y, si se logra hallarlos, ya no será necesaria la refrigeración del sistema, reduciéndose así los costos de construcción y operación.
Por otro lado, desde el descubrimiento del llamado efecto Josephson y el desarrollo alcanzado en el campo de los circuitos integrados trajeron como consecuencia una perspectiva espléndida de aplicaciones de la superconductividad en la electrónica.
El efecto Josephson consiste en el paso de corrientes superconductoras a través de una unión que, normalmente y desde un punto de vista clásico, no debería dejar pasar ningún electrón. Es un fenómeno típicamente cuántico, explicable por la mecánica cuántica.
La corriente Josephson está presente aun en ausencia de un voltaje aplicado a la unión (que recibe el nombre de unión túnel). Esta corriente de voltaje cero depende fuertemente de un campo magnético aplicado. Estas características permiten disponer de un interesante interruptor para circuitos lógicos. Este efecto también se observa, desde luego, en los nuevos materiales superconductores cerámicos.

Para las computadoras, el uso de dispositivos de efecto Josephson lleva a tiempos de transferencia de corriente extremadamente breves. Los tiempos de respuesta de un interruptor de efecto Josephson son de 5 a 10 picosegundos (un picosegundo es igual a 0.000000000001 segundos).
La dificultad de la aplicación del efecto Josephson radica en la elaboración de la unión en donde se da este efecto. Dicha unión ha de construirse con capas de oxido de unos 30 angstroms y, además, las características han de ser estables ante ciclajes térmicos y almacenamiento. Sin embargo, su utilización parece muy ventajosa y polifacética.
El SQUID (dispositivo superconductor de interferencia cuántica, por sus siglas en inglés) es uno de los dispositivos superconductores más utilizados. Existen dos tipos de este dispositivo: el SQUID de corriente directa (cd) y el SQUID de radio frecuencia (rf). Son los instrumentos más sensibles que existen para medir una gran variedad de cantidades físicas: campos magnéticos, cambios espaciales de campos magnéticos, susceptibilidades magnéticas, voltajes muy pequeños y desplazamientos microscópicos.
Aunque, por ahora, es demasiado pronto para que estos dispositivos tengan una gran repercusión en aplicaciones prácticas, dentro de la próxima década se espera un gran auge, tanto en la variedad de estos dispositivos superconductores como en la variedad de sus aplicaciones. Una de las más novedosa es en biomagnetismo, donde se utilizan para detectar espeacialmente las fuentes de los pequeñísimos campos magnéticos generados por el cerebro.

Algunos experimentos realizados en el departamento de Física de la Facultad de Ciencias Exactas
Los siguientes videos muestran experimentos realizados por alumnos de la licenciatura de Física de la UNLP. Estos experimentos fueron realizados en la materia Experimentos Cuánticos y en los videos puede verse una pastilla superconductora sometida a un campo magnético.

Aplicaciones de los superconductores.
Las aplicaciones de los materiales superconductivos están limitadas por dos motivos principales: 1.- La necesidad de enfriar el superconductor. 2.- Su eficiencia que en general, es inadecuada por la corriente alterna. En un campo alternante se presenta histéresis magnética. Esta presencia crea regiones localizadas de sobrecalentamiento que tiende a volver normal al superconductor. Las aplicaciones de los materiales superconductores entran en dos categorías principales, transmisión de energía y magnetos superconductivos.
En la actualidad se utilizan varios sistemas interesantes basados en los magnetos superconductivos. Uno de esos es el generador eléctrico superconductivo. Los generadores como estos son similares en concepto a un generador convencional. Los conductores eléctricos en un motor rotatorio crean un campo magnético revolvente que produce una corriente eléctrica en los conductores del cilindro que lo envuelve llamado estator. Un generador superconductivo utilizaría un rotor hilvanado con alambres superconductivos.
El rotor estaría rodeado con un estator criogénico. Otra aplicación de los magnetos superconductores es en el desarrollo de motores lineales que se pueden usar para impulsar trenes de alta velocidad. Los sistemas de propulsión convencionales limitan la rapidez y seguridad de los trenes. Estos problemas se solucionarían con trenes que flotaran en campos magnéticos y se impulsaran con ellos. También se usan magnetos superconductivos para estudiar sistemas de potencia magneto-hidrodinámica y termonuclear. En los dos sistemas se contiene en un campo magnético, gases ionizados muy calientes (plasma). Sólo los magnetos superconductivos pueden generar los inmensos campos magnéticos que se necesitan para confinar el plasma y evitar que entre en contacto con las paredes del recipiente.

Un uso comercial muy importante de los magnetos superconductivos actualmente son los analizadores de resonancia magnética. Estos dispositivos se usan en el campo de la medicina como una herramienta de diagnóstico. Esencialmente, el campo magnético intenso que genera el superconductor estimula que el núcleo de los átomos emita radiación. Esta radiación se usa para producir la imagen de una sección transversal del cuerpo de un paciente o de sus órganos internos. De hecho, no solo se obtiene la forma y la densidad de un órgano sino que esta técnica es capaz de analizar químicamente el tejido que está revisando. La ventaja obvia de este procedimiento es la detección temprana y los diagnósticos precisos de las enfermedades o anormalidades en el tejido humano.

Aplicaciones de la superconductividad para una electricidad más segura









Los hábitos de nuestra sociedad están demandando constantemente una mayor cantidad de energía. Ello está suponiendo un reto para todos los sistemas de distribución. En primer lugar, es necesario utilizar diferentes sistemas de producción y además se demanda un mayor grado de interconexión en las redes de distribución lo que a veces es un serio problema al estabilizar la tensión en la red. Por otra parte, algunos elementos de estas redes de distribución se están utilizando casi al límite de sus posibilidades. Además de estos hechos cualquier sistema eléctrico puede verse sometido a corrientes de cortocircuito por múltiples razones como, por ejemplo, el deterioro accidental de los aislantes de los cables, rayos o cortocircuitos causados por aves o caída de árboles.
Todos los equipos eléctricos que estén conectados a la red eléctrica deben poder soportar las tensiones térmicas y mecánicas asociadas con estas corrientes de cortocircuito. Los componentes deben diseñarse para soportar estas corrientes durante un periodo de tiempo, que es determinado por el tiempo que necesitan los interruptores de la red para actuar y que puede variar entre unos 20 y 300 milisegundos. En consecuencia, cualquier sistema que limite los valores máximos que pueda alcanzar la corriente durante un cortocircuito permitirá que los sistemas de protección instalados en los equipos se abaraten de forma considerable.
En este contexto se está incrementando la demanda de sistemas de limitación de corriente efectivos. Un sistema ideal de este tipo sería aquel que en condiciones normales de operación casi no influyera en la red, pero que en el momento en que se produce cualquier cortocircuito sea capaz de limitar la corriente máxima a un valor lo más pequeño posible, cercano al valor de la corriente nominal de trabajo. Ejemplo de estos sistemas de limitación los podemos encontrar en los fusible rápidos, en sistemas electrónicos de interrupción de corriente o en componentes con relaciones voltaje-intensidad no lineales.
En este último grupo es en el que podemos encuadrar a los materiales superconductores. En este caso nos beneficiamos de que en determinadas condiciones podemos inducir una transición desde un estado con resistencia cero y con apantallamiento magnético (estado superconductor) a otro estado con una resistencia finita que puede alcanzar valores considerables y sin posibilidad de apantallar los campos magnéticos (estado normal) (en la imagen). Para unas condiciones fijas de temperatura y campo magnético, esta transición se produce a un valor de corriente eléctrica que se llama corriente crítica.

En la imagen: Ejemplo de transición desde un estado superconductor a otro normal cuando aumenta la corriente que circula por un material superconductor, en este caso barras de Bi2Sr2CaCu2O8+ texturadas con técnicas de fusión zonal láser.
Configuraciones básicas de un limitador de corriente superconductor
El concepto más sencillo de un limitador de corriente superconductor es el resistivo. En esta configuración, el material superconductor se conecta en serie en la línea a proteger. El superconductor se diseña para que la corriente nominal de la red sea inferior al valor de la corriente crítica. De esta forma la interferencia del superconductor en la línea es despreciable en condiciones normales de trabajo.
Cuando se produce un cortocircuito la corriente eléctrica supera el valor crítico y el material transita al estado resistivo. Con ello la impedancia en el circuito aumenta rápidamente y la corriente máxima que se alcanza es bastante inferior a la corriente de cortocircuito.
La situación óptima se produciría con un material superconductor muy largo. En esta caso, como la resistencia que es capaz de generar un material es proporcional a su longitud, lograríamos que la limitación fuera efectiva en cuanto la corriente superara ligeramente el valor de corriente crítica. En este contexto diferentes grupos de investigación y empresas han desarrollado materiales superconductores con geometrías que permiten obtener muestras con longitudes superiores al metro. Un ejemplo es la alternativa presentada por Nexans Superconductors en donde sobre un tubo de material superconductor se ha mecanizado un camino en forma de doble hélice.

En la imagen: Diseño de un elemento basado en una doble hélice sobre un tubo de material superconductor con el objeto de ser utilizado en un limitador de corriente superconductor. //Imagen utilizada con permiso de Nexans Superconductors//.
Un problema adicional es que hay que tener en cuenta que los materiales superconductores de alta temperatura son materiales cerámicos y, en consecuencia, son materiales aislantes térmicos. Este hecho es importante a la hora de describir cómo se inicia la transición al estado resistivo. Generalmente este proceso se inicia en el punto del material que presenta las peores propiedades y ese punto al generar resistencia se va calentando. A diferencia de un metal, esta calor no calienta todo el material sino que se queda concentrado en esa región creando lo que se llama un punto caliente. En esta situación el limitador de corriente no sería efectivo y este es el segundo reto de los investigadores, lograr que cuando se produce la transición sea todo el material el que transita y genera resistencia y no solamente estos primeros puntos. Para ello se está trabajando en lograr materiales con propiedades más uniformes y en alternativas que favorezcan que una vez que se ha iniciado la transición en un punto, esta transición se propague a toda la muestra lo más rápidamente posible. Una solución que se está utilizando habitualmente es recubrir el material superconductor con una pequeñas capa metálica que ayude a distribuir el calor generado en estos puntos calientes y actúe como resistencia en paralelo.
Un segundo diseño de limitador de corriente superconductor es el que se conoce como inductivo. En este caso el limitador de corriente es un transformador en el que el primario es una bobina metálica a la que se conecta la red y que está acoplada con un secundario superconductor cortocircuitado. En condiciones normales el secundario está en estado superconductor que es capaz de compensar el campo magnético creado por el primario. En cambio al producirse el cortocircuito, el material superconductor pasa al estado resistivo y cambia completamente el acoplamiento del transformador incrementando la impedancia del sistema y limitando la corriente. En este caso diseñando adecuadamente el transformador podemos proteger adecuadamente al superconductor. El principal problema es conseguir muestras superconductoras con los tamaños requeridos. Generalmente son necesarios cilindros o anillos con diámetros en el orden de 50 a 70 centímetros.
Existen otros diseños que se han llamado híbridos. En ellos el secundario del transformador se fabrica con una bobina metálica normal, pero que está cortocircuitada a través de un material superconductor. En estado normal, el superconductor no presenta resistencia, mientras que al producirse el cortocircuito la impedancia del secundario aumenta porque el superconductor empieza a generar resistencia.
Otro aspecto importante de un limitador de corriente superconductor es que una vez que se ha producido la limitación el sistema puede volver por sí solo de nuevo al estado superconductor sin necesidad de ninguna intervención externa. Usualmente este tiempo puede llegar a ser de unos pocos segundos aunque se está trabajando intensamente en reducir este tiempo todo lo posible.
En estos momentos se están finalizando ya los primeros prototipos a escala comercial, los cuales se han comenzado a instalar experimentalmente en pequeñas subestaciones. Está previsto que en el año 2010 se pueda iniciar la comercialización de los primeros limitadores de corriente superconductores.
El grupo de superconductividad aplicada
El grupo de superconductividad aplicada desarrolla varias líneas de investigación relacionadas con el desarrollo de materiales superconductores para aplicaciones eléctricas de potencia. El grupo se ha concentrado en el desarrollo de dos técnicas de procesado: la fusión zonal inducida con láser y la fabricación de hilos y cintas con la técnica de polvo en tubo.
Las características de la radiación láser permiten concentrarla en un volumen de material que se calienta hasta alcanzar una temperatura tal que se funde. Moviendo la muestra con respecto al láser logramos que este pequeño volumen se vaya moviendo a lo largo de la muestra. Cuando esta técnica se usa en materiales superconductores de alta temperatura, el material que solidifica después de haber pasado bajo el láser está orientado (en la imagen) y con ello se consiguen mejorar las propiedades eléctricas del material.

En la imagen: Sección de un material superconductor en el que una zona se ha texturado con técnicas láser. La región 1 es el material base sin estar tratado con el láser. La región 2 es el volumen que funde el láser. La región 3 es el material solidificado después de haber sido fundido con el láser y en el que se puede ver que los granos están orientados.
De esta forma se han fabricado barras cilíndricas y recubrimientos. En el primer caso se consigue que cuando el material se enfría a 77 K por una barra de un milímetro de radio puedan circular más de 100 amperios sin que aparezca resistencia.
Por otra parte, se están fabricando recubrimientos de varios centímetros cuadrados sobre soportes cerámicos y metálicos. Para ello se utiliza un láser de diodos que tiene la peculiaridad que su haz se puede focalizar en una línea de varios centímetros de longitud. De esta forma se han podido texturar superficies de varios centímetros cuadrados. Para conseguir fabricar un conductor de la longitud suficiente se han mecanizado caminos utilizando técnicas de ablación láser .

En la imagen: Lámina de material superconductor texturada con fusión zonal láser sobre la que se ha mecanizado un camino en forma de meandro con técnicas de ablación láser.
En este caso se concentra mucha energía durante un periodo de tiempo muy corto logrando que el material se evapore y sea eliminado. La ventaja de la tecnología láser en este proceso es que se pueden mecanizar caminos con la geometría que se desee. Y finalmente, para minimizar los efectos de los puntos calientes se está trabajando en la deposición de capas metálicas de espesor controlado utilizando tecnologías de electrodeposición en medios no acuosos ya que el agua reacciona químicamente con estos materiales.
Composición del grupo de investigación
El grupo de investigación de Superconductividad Aplicada está integrado por investigadores del Instituto de Ciencia de Materiales de Aragón(CSIC-Universidad de Zaragoza). En el desarrollo de esta línea de investigación de aplicación de tecnologías láser para el procesado de materiales superconductores también colaboran investigadores del Laboratorio de Materiales Procesados con Láser del ICMA.
Miembros del grupo de Superconductividad Aplicada
Navarro Linares, Rafael
Angurel Lambán, Luis Alberto
Badía Majós, Antonio
Lera García, Francisco
Martínez Fernández, Elena
Rojo Martínez, José Antonio
Mora Alfonso, Mario
Sotelo Meig, Andrés
Gimeno Bellver, Fernando
Martínez López, Mónica
Colaboradores habituales del ICMA
De la Fuente Leis, Germán
Díez Moñux, Juan Carlos
López Gascón, Clarisa
Tema Aragón Investiga: 28/12/2005


Bibliografía

http://noticiasdelaciencia.com/sec/tecnologia/nanotecnologia/
Noticias de Ciencia y Tecnología Amazings NCYT


Camous
http://campus.uptelesup.com/

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.