Incluso las mejores supercomputadoras del mundo son máquinas asombrosamente ineficientes y de alto consumo energético.
Nuestro cerebro tiene más de 86 mil millones de neuronas, conectadas por sinapsis que no sólo completan innumerables circuitos lógicos, sino que se adaptan continuamente a los estímulos, reforzando algunas conexiones, mientras otras se debilitan. Ese proceso, que llamamos aprendizaje, permite la clase de procesos computacionales rápidos y de gran eficiencia que avergüenzan a grandes computadoras como Siri o Blue Gene.
Unos científicos de la Facultad de Ingeniería y Ciencias Aplicadas de Harvard han creado un nuevo tipo
de transistor que imita el comportamiento de una sinapsis. El nuevo dispositivo modula simultáneamente el flujo de información en un circuito y se adapta físicamente a las señales cambiantes.
de transistor que imita el comportamiento de una sinapsis. El nuevo dispositivo modula simultáneamente el flujo de información en un circuito y se adapta físicamente a las señales cambiantes.
Aprovechando las inusuales propiedades de los materiales modernos, el transistor sináptico podría marcar el comienzo de una nueva clase de inteligencia artificial: una que no va incorporada en algoritmos inteligentes, sino en la propia arquitectura del ordenador. Los resultados se han publicado en la
revista Nature Communications («A correlated nickelate synaptic transistor»).
revista Nature Communications («A correlated nickelate synaptic transistor»).