El límite tecnológico de las computadoras.

Cada día nos sorprendemos por la capacidad de superar límites, incluso la propia ciencia ficción, a nivel tecnológico. Nos preguntamos: ¿cual será el límite?¿tiene límite?. Era difícil no hace muchos años imaginar la realidad que vivimos hoy como algo real, el disponer de los dispositivos actuales, que sólo eran imaginaciones de la literatura y del cine. Cuando hoy en día ya se vislumbra el límite físico de la tecnología actual, las alternativas, entre otras, se basan en la computación cuántica a medio plazo (no inmediata) o los algoritmos de deep learning de inteligencia artificial para optimizar la actual tecnología. Sin embargo la capacidad humana no para de sorprendernos, y lo que hoy nos parece algo complicado, es posible que aparezcan otras alternativas, incluso más allá de la informática, tal como la entendemos hoy en día.

Hay tres leyes que marcan la capacidad de procesamiento cada vez a menor coste, de crecimiento del valor de las redes, según crece su tamaño, y de expansión de las comunicaciones. Estas leyes han permitido, entre otros avances, como la computación en nube que conocemos actualmente. Son fundamentales en el desarrollo y origen digital:

  • Ley de Moore que rige el crecimiento exponencial de la capacidad de computación en la evolución de los procesadores.
  • Ley de Metcalfe que determina el valor de las redes según el número de nodos.
  • Ley de Gilder del Ancho de Banda de crecimiento de las comunicaciones, potenciadas por el incremento del volumen de datos transmitidos.

La ley de Moore, que trabajaba en en Fairchild Semiconductor e Intel, dice que  la complejidad (medida como número de transistores) de los circuitos integrados se duplicaba cada año a la vez que se reducían los precios y costes de fabricación. En 1975, Moore modificó su ley al observar un ralentizamiento en la evolución de cada 12 meses a cada 24 meses. Ahora bien, tiene en cuenta sólo el número de transistores pero, en el rendimiento de un procesador hay que añadir otros factores como son la velocidad de los transistores o su consumo energético. Por lo que se interpreta la duplicación de la capacidad cada 18 meses (incluyendo el resto de variables).

Visualización de la Ley de Moore de 1965 a 2019

La ley de Moore se ha cumplido década tras década, pero es una ley empírica, pero no es una ley o norma que pueda imponerse o vaya a cumplirse siempre. La reducción de costes no ha sido del todo natural, sino que se ha debido a enormes inversiones en I+D, tanto públicas como privadas. Sin embargo se está llegando cada dos años al límite físico de los procesadores y se está llegando a un punto de estancamiento y se predice ese estancamiento en 2025, tanto por causas físicas como por el incremento de los costes de mantenimiento del ritmo de creciento. Cada vez es más caro incrementar el número de transistores en un procesador. Aunque la creación de procesadores especializados (por GPUs adaptadas para Inteligencia Artificial), quita presión a la inversión en los procesadores de propósito general (CPU). Lo peor de todo es que pese a los avances en computación cuántica, estamos lejos de tener una alternativa inmediata.

Seguir leyendo

Robotización: la automatización del empleo.

La automatización quiere decir que los trabajos que antes hacíamos, ahora lo harán máquinas. Se estima que en dos décadas las máquinas harán la mayoría de trabajos mejor que tú. Antiguamente la automatización consistía en máquinas grandes y tontas haciendo trabajos repetitivos, sin cansarse. Hoy las máquinas pueden aterrizar aviones, diagnosticar el cáncer, fabricar automóviles o hacer intercambios bursátiles. Estamos entrando en una nueva era de la automatización. Las máquinas son cada vez mejores, no parece haber límites a los problemas que puede resolver la inteligencia artificial. De acuerdo a un estudio de 2013, casi la mitad de todos los empleos en EE.UU pueden potencialmente ser automatizados en los próximos veinte años. Pero para quienes piensan que este proceso de automatización se ha producido durante décadas, sin ninguna novedad, ahora es ya diferente. Tenemos que prepararnos para un futuro donde tendremos que convivir con las máquinas, nos guste o no. Y puede que tengamos que hacerlo mucho antes de lo que pensábamos.

Brazo mecánico

La capacidad de la inteligencia artificial está sobrepasando todos los límites.

La automatización es imparable, muchos trabajadores serán reemplazados por máquinas. La mitad de los trabajos actuales del mercado laboral está listo para ser automatizado (no es obligatorio, pero la tecnología permite hacerlo), y muchos con probabilidad del 100%, sobre todo aquellos repetitivos, peligrosos o aquellos cuyo cometido consiste en procesar información. Con el tiempo se espera que este proceso se acelere exponencialmente debido a los avances tecnológicos futuros.

En muchos lugares del mundo, como Seguir leyendo

Nanotecnología: futuro real, de ciencia ficción.

Cada vez existen más productos nanotecnológicos invadiendo el mercado, como son materiales que resisten abolladuras, ralladuras y autorreparables, materiales textiles y deportivos de mayor precisión, mejor flexibilidad, ropa antibacterias, resistente a manchas y antiarrugas, baterías de carga rápida, lentes y pantallas mejoradas y antiarañazos, … etc. Como adivinamos tiene aplicaciones inmensas en muchos campos como electrónica, biomedicina, computación, comunicaciones, energía, arquitectura, alimentación, agroindustria, textil, medioambiente, militares,… Existe un incremento progresivo de productos en el mercado y se verá aún más incrementado en el futuro.

Nanotech_gear_vkrh5c

Clinton en el año 2000 puso en marcha la NNI (Iniciativa Nanotecnológica Nacional) para coordinar los esfuerzos en I+D en ese área. En 2003 el Congreso Estadounidense aprobó los estatutos de la NNI, estableciendo presupuestos, agencias, programas, financiación e impulso de investigaciones claves. Bush destinó 3.630 millones de dólares para tener una posición estratégica en los años 2003-2006. En 2008 el NNI lanzó estrategias medioambientales, salud y seguridad en la investigación. En 2012 relacionadas con nanosensores e infraestructuras de conocimiento. Obama en 2014 destinó otros 1.500 millones, destinados sobre todo a ciencia básica, salud, energía y defensa. Actualmente hay planes plurianuales en todas las estrategias. La cantidad destinada al NNI asciende a unos 21.000 millones de dólares desde su creación. En 2003 el gobierno británico encargo un informe acerca de las repercusiones sanitarias, sociales, ambientales y éticas de la nanotecnología. En 2004 la Comisión Europea la considera un nicho fundamental en todos los programas, emitiendo la acción COM(2004)338 unificando e institucionalizando la financiación de I+D en este campo. Actualmente todos los países desarrollados o en vías, tienen programas de apoyo y explotación de la nanotecnología; así como centros de estudios en muchas universidades de todo el mundo. La nanotecnología a nivel mundial en 2002 en el mercado suponía 110.000 millones en el mercado, en 2015 era ya de 800.000 millones.

original

Estamos hablando de un revolución industrial que a medio plazo va a cambiar el mundo, como lo hicieron las revoluciones del transporte o las de las tecnologías de la Seguir leyendo

Aprendizaje profundo – Deep Learning

El aprendizaje profundo es la unión de algoritmos de aprendizaje automático para enseñar a las máquinas cuestiones abstractas más avanzadas, tales como reconocer caras, conducir vehículos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, hacer diagnósticos médicos, traducir textos o «entender» el lenguaje hablado, aprender de la experiencia. Las redes neuronales son básicamente una imitación en software del funcionamiento de las neuronas: sus interconexiones y con ciertos estímulos de entrada producir salidas o resultados. El aprendizaje automático consiste en dotar a los ordenadores de inteligencia artificial permitiéndoles aprender.

1280px-blue_mountain_supercomputer Seguir leyendo