martes, 15 de abril de 2014

Una Aplicacion Argentina que da que hablar

Conocé Preguntados, el videojuego argentino que está de moda en América latina

La aplicación gratis de preguntas y respuestas se convirtió en uno de los títulos más descargados en las tiendas de Google y Apple, con más de 180 mil nuevos usuarios por día
Por   | LA NACION 
Las rondas de preguntas y respuestas son un formato clásico que nunca dejan de tener vigencia en el mundo del entretenimiento, sea en un juego de mesa , los programas televisivos y también en los dispositivos móviles. Allí es donde Preguntados , un título desarrollado íntegramente en la Argentina, que logró acaparar la atención de los jugadores de América latina.
Disponible para teléfonos y tabletas con Android de Google o iOS de Apple (y con u modelo freemium, donde el contenido básico no tiene costo), su crecimiento explosivo se dio en el último mes, con más de 180 mil usuarios nuevos por día, de los cuales 60 mil son de Argentina.
Video: Asi es el Preguntados
Bajo el formato de trivia social, que combina la interacción de los usuarios de Facebook y el uso desde los teléfonos móviles con Android o el iPhone, Preguntados forma parte del catálogo de juegos de Etermax, una empresa argentina que tiene títulos como Mezcladitos, Bingo Crack y Apalabrados, el primer gran éxito de la firma que se posicionó como la aplicación más descargada del año en España.
En las partidas, los usuarios ponen a prueba sus conocimientos ante trivias que combinan preguntas de conocimiento universal con otras de enfoque más regional, divididas en seis categorías: Geografía, Historia, Arte y Literatura, Ciencia y Tecnología, Entretenimiento y Deportes.
La particularidad del juego está en el aporte de los usuarios, que proponen más de 20.000 preguntas diarias, de las cuales quedan unas 1000 que pasan a formar parte de los cuestionarios del Preguntados.
 
Foto 1 de 4
"Todo comenzó con Apalabrados, un juego que fue un éxito en España y que marcó el inicio del desarrollo de títulos propios", cuenta Máximo Cavazzi, un joven ingeniero egresado del ITBA que decidió crear Etermax luego de crear una aplicación para la compra y venta de acciones.
"Nos destacábamos por crear muy buenos desarrollos, pero el mercado financiero no estaba del todo convencido en invertir en el mundo móvil en aquel entonces. Así fue que decidimos apostar por la creación de juegos, tras un análisis de las principales tiendas de aplicaciones", agrega Cavazzi.
El éxito del Preguntados vino de forma silenciosa, tras realizar algunos cambios desde su lanzamiento a fines de 2013, con una interfaz pulida y una integración de las conexiones sociales basado en Facebook.
Con tantos juegos que irrumpen la escena móvil, desde el famoso Candy Crush hasta el efímero pero adictivo Flappy Bird, la apuesta de Preguntados es de largo plazo. "Es un título que, al igual que Apalabrados, logra sostenerse en el tiempo, debido a la cantidad de contenidos que los mismos usuarios generan en la aplicación. Además, sumaremos nuevas modalidades de juego y habrá cambios en la forma de calificar las preguntas", cuenta el fundador de Etermax.
La consigna del Preguntados es, para Cavazzi, la principal razón del éxito del juego. "Es un formato clásico, adoptado tanto en los programas de TV como en los juegos. A las personas les encanta responder preguntas y poner a prueba su conocimiento. Está en cada uno, desde sus respectivas plataformas o formatos, crear el clima ideal para que la audiencia se enganche en la propuesta. En este punto, Preguntados le encontró la vuelta a través de las conexiones de los usuarios en las redes sociales".

domingo, 23 de marzo de 2014

Helo Ciborgs, hi Ciborgs, hola Ciborgs....


¿Un Mundo Feliz?

El año que la tecnología se viste de humana


Video promocional de Android Wear
Reloj, pulseras, lentes, la oferta de dispositivos para prendas de vestir está aumentando vertiginosamente.
La tecnología para vestir o vestible es el concepto que está en la boca de todos los entusiastas de la innovación.
Relojes inteligentes, pulseras deportivas, anteojos que toman fotos, la lista de dispositivos vestibles crece día a día y este año está sonando más fuerte que nunca.
Este martes Google lanzó clicAndroid Wear, una versión de su popular sistema operativo especializado en tecnología para vestir. El nuevo Android aún está en pañales pero se rumora que LG fabricará el primer reloj Nexus (si es que así deciden llamarle) del buscador.
Al momento la base de datos de la empresa Vandrico asegura que hay en el mercado 175 dispositivos de este estilo.
Pero ¿qué es un aparato vestible?
Para ejercicios
Las prendas/tecnológicas está teniendo gran aceptación entre las personas que practican deportes.
El consenso es que se trata de un dispositivo que puede usarse como ropa o accesorio, que debe vestirse en el cuerpo y no cargarse como un teléfono celular. Debe también ser controlado por quien lo porta (no sólo a control remoto) y proveer una experiencia diferente o reforzar las caracteristicas de un móvil o una tableta.
En el fondo, sin embargo, es probable que sea más fácil explicar el súbito entusiasmo con dos simples razones: la tecnología es cada vez más personal y el mercado móvil está saturado.
La película "Her" (Ella) de Spike Jonze ha sido alabada por su producción artística. Situada en el futuro muestra un mundo en donde la tecnología está al centro de la humanidad, y aún así parece casi invisible durante el filme.
Su sutil presencia se explica porque los dispositivos son mostrados como una extensión de nosotros mismos y no como los protagonistas. La tecnología vestible apunta a eso: ser lo más útil posible siendo lo más invisible posible.
Piénsenlo por un segundo. La forma en la que cargamos los teléfonos o como interactuamos con las tabletas muestran que cada vez más consideramos a estos aparatos como una parte de quienes somos.
Por supuesto el cambio (ya sea evolución o involución, eso se los dejo a ustedes) se extiende más allá de la arena filosófica y tiene también un claro propósito comercial.
Moto 360
La idea es que la tecnología forme parte de nuestra vida de forma sutil, casi invisible.
Cada vez hay menos espacio para competir en el mercado de los dispositivos móviles. Por primera vez en la historia se venden más teléfonos celulares y tabletas que computadoras personales. Los Samsung, Apple, LG de este mundo están llegando a un punto en el que es difícil innovar y encontrar más gente dispuesta a comprar sus aparatos cada año.
En ese sentido la tecnología vestible abre una maravillosa puerta a nuevas ganancias y espacio para la innovación. Su competencia, además, deberá reducir los precios de este tipo de dispositivos cuyo precio promedio se ubica en US$375.
En cuanto al tipo de dispositivos para vestir que se encuentran en el mercado, la base de datos de Vandrico muestra que la muñeca parece ser la parte del cuerpo favorita para los fabricantes con 56 aparatos inteligentes (relojes, brazaletes) a disposición de los consumidores. En segundo lugar se encuentra la cabeza (piensen en Google Glass) con 34 productos.
Google Glass
Google Glass es uno de los productos destinados para la cabeza.
La mayoría de ellos tienen como propósito satisfacer las necesidades de nuestro estilo de vida, como hace un móvil, con 118 productos destinados a este fin. En el campo de salud hay 83 aparatos en el mercado y 42 dispositivos dedicados a la condición física, como tecnología para medir kilómetros recorridos, etcétera.
La firma de análisis de tecnologías de la información Canalys cree que este año, la tecnología vestible se convertirá en un producto clave para los consumidores.
Según ellos, habrá 17 millones de dispositivos tan sólo para nuestras muñecas, un número que crecerá a 23 millones en 2015 y más de 45 millones en 2017.
Quizá en el futuro recordemos a 2014 como el año en el que la tecnología comenzó a desaparecer para convertirse en una extensión de nuestro cuerpo. Hola cíborgs.

Diario BBC Mundo

jueves, 13 de marzo de 2014

Un Feliz Cumple a la NUBE


Las bodas de plata de la Web: 25 años de una idea que cambió el mundo

Un recorrido por los acontecimientos más destacados y curiosos del desarrollo impulsado por Tim Berners-Lee en 1989
Por   | Para LA NACION 
 
Un encuentro de usuarios de Internet en San Pablo, Brasil, en un evento conocido como Campus Party en 2011. Foto: Reuters 
 
Pensar hoy cómo era el mundo sin Internet y las páginas web actuales, es como tratar de imaginarnos sin autos, aviones o energía eléctrica. Así de masiva y trascendental para nuestras vidas logró convertirse "La Web" en apenas 25 años de vida.
Cumplir 25 años en el mundo de la tecnología es realmente muchísimo, y también es una confirmación de que la World Wide Web (su nombre formal) ya pasó de ser una novedad para convertirse en un hito que cambió nuestra forma de vida.
Así como la revolución industrial permitió acelerar los procesos de fabricación a velocidades desconocidas, y los aviones nos dieron la posibilidad de acortar los tiempos y ver el mundo desde otra perspectiva, la Web nos permitió acercarnos a todos los rincones del planeta con unos pocos clics del mouse. Repasemos un poco sus orígenes y curiosidades.

UNA SOLUCIÓN INGENIOSA QUE TRANSFORMÓ EL MUNDO

 
Un centro de Internet en Nairobi, Kenia, que funciona con energía solar. Desarrollada en 1989 por Tim Berners-Lee, la World Wide Web logró ir más allá del ámbito académico y se extendió por todo el mundo. Foto: AFP 
 
Podemos considerar a la Web como un invento, ya que nació de una idea de su creador, Tim Berners-Lee , para resolver problemas de gestión y administración de contenidos utilizados en elCERN (Organización Europea para la Investigación Nuclear), lugar donde trabajó cuando diseñó el primer prototipo de la web y sus protocolos.
¿Qué inventó exactamente Berners-Lee? Durante los años que estuvo en el CERN, ese organismo ya era uno de los nodos de Internet más grandes de Europa, pero a pesar de que Internet ya era utilizado por gobiernos y militares, no existía un método o plataforma para visualizar o navegar contenidos como lo hacemos en la actualidad, es decir, no había navegadores web ni páginas, ni hipervínculos tal como los conocemos hoy aunque sí otros servicios de búsqueda y enlace de contenidos basados en texto como Gopher, Archie o Veronica.
No está de más recordar que Internet es la infraestructura digital sobre la que se montan una serie de servicios (la Web, el mail, el chat, el streaming de video, las llamadas de voz, etcétera), por lo que Web e Internet no deben tomarse como sinónimos. De hecho, Internet comenzó a gestarse 20 años antes de que Berners-Lee escribiera su famoso trabajo.
La problemática del CERN que preocupaba a Lee estaba basada en la pérdida de información generada por miles de científicos de gran valor para los avances que realizaban, y todos los problemas que esto generaba entre equipos de trabajo y áreas relacionadas. Su idea era unificar un único espacio, accesible desde cualquier lugar del mundo a través de internet, que permitiera almacenar, consultar, actualizar y compartir esa información en forma masiva.
El 12 de marzo de 1989, Berners-Lee le presentó el proyecto a su jefe , quien lo consideró "vago, pero interesante". Esto no detuvo al británico de 34 años e hijo de expertos en computación de la Universidad de Manchester, quien avanzó con su idea hasta que un año después logró implementarla.

PRIMEROS PASOS

 
La computadora NeXT utilizada por Tim Berners-Lee para desarrollar su proyecto a fines de la década del 80. Foto: Gentileza CERN
 
Para lograr que su idea se convirtiera en realidad, Lee tuvo que desarrollar varios aspectos vitales para su funcionamiento. Internet ya existía desde el día que unos alumnos interconectaron varias computadoras entre las universidades de Stanford y California (UCLA), a través de una línea telefónica conmutada en 1969, algo que luego fue adoptado y modernizado por el ejército y los organismos de inteligencia de Estados Unidos.
Es más, antes de que existiera la World Wide Web, ya había nacido el correo electrónico (creado en 1971 por Ray Tomlinson , quien también desarrolló en 1982 el primer cliente de correo), e incluso siete años después, en 1978, uno de esos correos se ganaba la distinción de convertirse en el primer mensaje considerado Spam en la historia de Internet.
En su proyecto inicial y hasta su primera implementación, Berners-Lee, con la ayuda del ingeniero industrial Robert Cailliau (considerado co creador de la web), terminó de definir el concepto de "hipertexto" que había nacido en la década de 1960, la forma de comunicación primaria que utiliza la web, relacionando contenidos con enlaces dentro de internet.
Para lograr esto desarrollaron el lenguaje HTML, hoy reconocido por casi cualquier persona, o al menos oídos alguna vez, y lo unieron a distintos protocolos universales para construir la WWW:
  • URL: Uniform Resource Locator, es la identificación única y universal que se le da a cada uno de los contenidos alojados en la web, y que es visible en la dirección web que muestra nuestro navegador. El concepto varió en los últimos años hacia uno más global denominado URI, Uniform Resource Identifier.
  • HTTP: HyperText Transfer Protocol, es la forma en que se comunica el navegador con los servidores que alojan las páginas y sus contenidos, así como las comunicaciones entre servidores.
  • HTML: HyperText Markup Language, es el protocolo que define la estructura y contenido de cada documento de hipertexto. Es el lenguaje básico utilizado para la creación de una página web.
  • XML: eXtensible Markup Language, creado para facilitar el acceso a partes del HTML que no ofrecen información legible. Es utilizado para describir la estructura de los documentos de texto.
  • HITOS FUNDAMENTALES DE ESTOS 25 AÑOS

     
    Tim Berners-Lee presentó su proyecto en 1989, y cuatro años más tarde el CERN dio a conocer el primer sitio web de la historia. Foto: Gentileza tanaka / Flickr
     
    El gran avance de Berners-Lee fue unir hipertexto e Internet. Cuando comenzó a trabajar la idea en su mente, lo primero que hizo fue intentar unir a través de su invento, a miembros de las comunidades tecnológicas especializadas en digitalización de contenidos e internet. Nadie aceptó su invitación. Esto lo motivó, como cuenta en su libro Tejiendo la red , a encarar el proyecto él mismo.
    La Web motorizó e impulsó un cambio radical en la forma en que nos comportamos como sociedad. Nos ha permitido manifestarnos, opinar, crear, conocer personas, acortar distancias, optimizar el trabajo, conocer lugares, aprender, entre muchas otras cosas más.
    Pero también nos brindó una plataforma que logró cambiar nuestra sociedad y sus relaciones. No vamos a entrar en la discusión de si esos cambios han sido para bien o para mal, podríamos consensuar en que son un tanto confusos y dolorosos, como seguramente lo han sido otros cambios a lo largo de la historia.
    Ese impulso que cambió nuestra forma de relacionarnos como sociedad fueron las redes sociales, apoyadas en la web e impulsadas por el constante deseo de relacionarnos con otros.
    Aunque parezca sencillo, lo que hoy conocemos como Web y utilizamos a diario no habría sido posible de no ser por unos pequeños detalles que Tim Berners-Lee no dejó librados al azar.
    Al darse cuenta de la dimensión de su invento, decidió marcar ciertas reglas de uso para garantizar el libre acceso y utilización. Al crear la web decidió liberar tanto los protocolos de funcionamiento como el software y sus servidores. Este concepto hizo que la web se consolidara y difundiera a velocidades inesperadas: El número de servidores web pasó de 26 en 1992 a 200 en 1995.
    Tres años después de la puesta en marcha definitiva de la Web, Berners-Lee viajó a Estados Unidos para trabajar en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Massachusetts Institute of Technology. Desde ese lugar creó el W3C, un organismo internacional de estandarización de tecnologías web, el cual Berners-Lee aún dirige, conformado también por organismos de Francia y Japón.
    La importancia del W3C en el mundo es la de estandarizar los sitios en base a una normativa global, ofreciendo herramientas, recursos y normativas para la creación de sitios web, en forma gratuita y libre, otro de los pilares que permitieron que la WWW haya trascendido y crecido tanto.

    PÁGINAS CLAVE

    A pesar de que la web se convirtió rápidamente en la plataforma estándar de navegación en internet, nada de lo que conocemos hoy habría sido posible sin el principal motor de su funcionamiento: los contenidos.
    En el ránking global de sitios web más visitados al 2013, los diez primeros son los siguientes:
  • Google
  • Facebook
  • YouTube
  • Yahoo!
  • Baidu
  • Wikipedia
  • QQ
  • LinkedIn
  • Windows Live
  • Twitter
  • CURIOSIDADES DE LA WEB

    • La primera página web de la historia fue reactivada por un proyecto de conservación histórica de hitos tecnológicos. Así era la primera web:http://info.cern.ch/hypertext/WWW/TheProject.html
    • El primer servidor Web estaba instalado en el CERN y fue puesto en línea el 6 de agosto de 1991. En este servidor se alojó el primer directorio Web del mundo, formado por varios sitios creados previamente por Berners- Lee. La computadora utilizada fue una NeXTcube (http://commons.wikimedia.org/wiki/File:First_Web_Server.jpg ), creación de Steve Jobs durante su exilio de Apple.
    • Un error común es pensar que Internet es lo mismo que WWW. Aunque informalmente lo llamemos así y se entienda, son dos cosas distintas. El concepto de World Wide Web creado por Tim-Berners Lee en 1990 es sólo un servicio dentro de la red Internet.
    • El primer navegador web lanzado al mercado fue Mosaic, en febrero de 1993.
    • Muchos años antes de que existieran Google, Yahoo! o Bing, estaba Wandex, creado en 1993 como un índice de páginas web y reconocido como el primer buscador de la historia.
    • El primer motor de búsqueda, tal como los que conocemos en la actualidad, se llamaba WebCrawler y fue creado en 1994. Este motor permitía hacer búsquedas de textos o palabras en cualquier página web.
    • YouTube no fue el primer sitio web de videos. Antes existió Tune in Hook Up, un sitio de citas que permitía hacer lo mismo, subir videos, comentarlos y compartirlos.
    • Facebook es el sitio web que concentra la mayor cantidad de contenidos compartidos en internet. Más del 44% de lo que se pone online tiene su origen en la red social de Mark Zuckerberg, seguido por Twitter, con cerca de un 29%.
    • En diciembre de 2009 se creó el primer sitio web que permitía interacción táctil.
    • El país con más usuarios de la web es China, con más de 400 millones. A pesar de eso, la penetración de internet en ese país es de apenas el 24%, una de las más bajas del mundo.
    • El idioma español es el tercero más utilizado en la web (28%) , después del inglés y el chino.
    • En su afán por mantener la web estandarizada e universal, Tim Berners-Lee fue el principal detractor del dominio .mobi, que buscaba crear sitios acceibles sólo desde dispositivos móviles. De esa controversia nació el concepto "Responsive", para el diseño de páginas web adaptables a cualquier dispositivo que quiera visualizarlas.
    • ENQUIRE era el nombre del software desarrollado por Tim Berners-Lee en 1980, y que utilizó para desarrollar el concepto de La Web actual. Su nombre viene de la frase "Enquire Within Upon Everything", en español "Preguntando de Todo Sobre Todo".

    domingo, 9 de marzo de 2014

    Abuso de la Tecnología afectan el aprendizje

    Expertos alertan que fenómeno 'phubbing' y abuso de dispositivos afectan al aprendizaje.

    La imagen de 2 o más personas reunidas utilizando sus teléfonos móviles y sin hablar entre ellas se ha vuelto recurrente y, aunque puede parecer simplemente de mala educación, para los expertos podría ser una clara señal de que estamos perdiendo nuestra capacidad para concentrarnos, incluso, en algo tan básico como una conversación entre amigos.
    El fenómeno tiene nombre propio: phubbing, término que proviene de las palabras en inglés phone (teléfono) y snubbing (desairar), haciendo referencia al trato despectivo que supone ignorar a la persona con la que se está por prestar atención al celular. Tanto así, que un estudio realizado por T-Mobile en el 2012 encontró que los usuarios de telefonía miran sus pantallas un promedio de 150 veces al día.
    Aunque el phubbing se manifiesta principalmente en situaciones sociales, puede ser síntoma de comportamientos adictivos que ponen en peligro el buen desempeño académico, teniendo en cuenta que la concentración es una de las claves para lograr un correcto aprendizaje.
    De acuerdo con el neurólogo Leonardo Palacios, decano de la facultad de Medicina de la Universidad del Rosario, la falta de concentración representa también un reto para los educadores.
    Cuando se está dictando una clase magistral hoy en día, es una pesadilla ver a los estudiantes conectados a algún tipo de dispositivo, bien sea un celular, una tableta o un computador portátil, porque ni el educador más optimista va a pensar que lo que los estudiantes están haciendo en estos aparatos es profundizar en los temas de la clase o corroborar lo que uno les está diciendo. Lo que siempre vamos a pensar es que están distraídos con algún juego o chateando y que el conocimiento que les queremos transmitir no lo están recibiendo”, asegura Palacios.
    El educador agrega que el nivel de desconcentración entre los jóvenes es tal que puede llegar hasta a “distraerlos de sus distracciones; los jóvenes están tan inmersos en sus aparatos y en cualquier novedad que provenga de ellos que llegan incluso a interrumpir sus actividades de esparcimiento, por ejemplo, pausando un videojuego para responder un mensaje de chat, o revisar el celular durante una fiesta, un concierto o cualquier otro espectáculo”, señala Palacios, quien considera que este es un comportamiento sin precedentes en la historia.
    Distractores vs. voluntad
    El especialista recuerda que hace unos cuantos años las distracciones eran menores, y a las personas les tocaba esperar su turno para utilizar el teléfono de la casa, reunirse a ver televisión, o planear una salida al cine. Sin embargo, “ahora, las distracciones están todas concentradas en las pantallas”, dice.
    Por el contrario, para María Patricia Gómez, directora del Programa de Integración a la Universidad de la Sabana, los dispositivos electrónicos no son los únicos culpables de que los estudiantes pierdan la concentración. “Una dinámica familiar disfuncional o una pelea de pareja pueden hacer que un universitario, por ejemplo, vaya a clases sin prestar atención a lo que le dice el profesor. Esta clase de circunstancias, sin lugar a dudas, tienen más poder que un aparato tecnológico”, asevera Gómez.
    Para esta psicóloga, magíster en educación, “distracciones tenemos por montones, pero los dispositivos no son los malos, depende de la fuerza de voluntad de un estudiante para enfocarse en una sola cosa y saber priorizar los diferentes asuntos a los que se enfrenta. Es cuestión de establecer límites”.
    Verena Steiner, experta en estrategias de concentración y en herramientas efectivas para el aprendizaje, comparte la opinión de que el poder reside en la voluntad individual, y considera que el mayor enemigo de la concentración son las interrupciones y las distracciones, seguidas de los ruidos. “Es una situación paradójica, porque la mayoría de estas molestias las podemos evitar –explica en una entrevista con Efe–. A menudo, una interrupción o un sonido pueden resultar más interesantes que la tarea que tenemos entre manos o convertirse en un rescate oportuno o una justificación para aplazar una tarea difícil”.
    Cómo enfocar la mente
    Según Verena Steiner, la primera regla para estudiar es simple: apague el teléfono móvil, olvídese de internet, póngase tapones en los oídos y ¡comience a trabajar!
    Debe observar su comportamiento sin criticarse; es decir, sin valoraciones, como un zoólogo observaría a sus elefantes o tiburones. Así toma más conciencia de su nivel de atención. Desde el momento en que se da cuenta de que le falta la concentración, su comportamiento ya mejora.
    Guiar la constancia
    Steiner recomienda a los padres que adiestren la constancia infantil. “Los niños tienen que aprender a acabar con las cosas sin dejarse distraer. Por ejemplo, los papás pueden elogiar la perseverancia y la aplicación con la cual el niño está dibujando, más que elogiar el dibujo en sí”. Los videojuegos, Internet o la televisión atraen la atención con una fuerza muy poderosa y concentrarse en ello no implica esfuerzo; “la fuerza de voluntad es el punto decisivo y no se desarrolla frente a una pantalla”.
    NICOLÁS BUSTAMANTE
    Redactor de EL TIEMPO

    viernes, 21 de febrero de 2014

    Robotech Valkyrie Project Episodio 2 de 3 HD

    HECHO 100% EN ARGENTINA POR AGENTINOS Y DE BAHIA BLANCA
    Y ESTA BUENISIMO FELICITACIONES A TODOS LOS QUE LO CREARON
    Y ENCIMA TODO A PULMON
    SE LLEVAN EL APLAUSO Y MUCHO MAS...


    miércoles, 1 de enero de 2014

    Un Interesante Articulo sobre la evolución de la Tecnología en 5 decadas


    Cinco décadas de inventos disruptivos

    Por  | LA NACION

    Estábamos preparando nuestro anuario y me puse a pensar que en general existe la sensación de que esta industria va muy rápido. En realidad es más complicado, como se verá enseguida, pero, redondeando, sí, no da paz. Pero, ¿cuán rápido marcha en realidad la tecnología digital de consumo?
    Me puse a recorrer, primero de memoria, después con la documentación, la lista de los desarrollos desde el transistor MOSFET en 1960 y, poco a poco, se fue develando un patrón insólito. Desde entonces, nacerían dispositivos, procedimientos o servicios disruptivos casi cada año; en muchos casos, varios por año.
    Es notable, porque durante gran parte de su historia la civilización vio aparecer inventos a un ritmo de 4 o 5 por siglo. Eso cambió en 1455, con la revolución científica y técnica disparada por laimprenta de Gutenberg , que terminaría por dar origen a la Revolución Industrial. A mediados del siglo XX, la electrónica digital impulsó esa creatividad hasta niveles nunca antes vistos.
    Los párrafos que siguen intentan no sólo una enumeración, que de por sí corta el aliento, sino mostrar, allí donde no sea evidente, la forma en que estos desarrollos cambiaron nuestra vida cotidiana para siempre. En general sólo menciono los primeros dispositivos operativos, aunque muchos tienen largas y complejas historias que pueden remontarse varios siglos (como el LCD o la computadora) o milenios (como los robots o la inteligencia artificial). La lista no puede ser completa, por un número de razones, pero he tratado de incluir todo lo que ha producido una revolución en la forma en que trabajamos, nos entretenemos, nos comunicamos, consumimos cultura, y así. Aceptaré con gusto cualquier añadido que esté dentro de estos parámetros, lo mismo que cualquier enmienda. Mi intención es que esta lista quede como una buena fuente de consulta.

    LOS ORÍGENES

    Empezaré por el transistor, el componente básico de los cerebros electrónicos modernos. Nace, para reemplazar las válvulas de vacío, en 1947. En 1954 aparece el primer transistor de silicio. Entonces, en ese año fundacional de 1960, desarrollan el primer transistor de efecto de campo metal-óxido-semiconductor (MOSFET, por sus siglas en inglés); sigue siendo el tipo de transistor más usado en la electrónica digital.
    La década del '60 verá aparecer, entre otros que se listan abajo, 3 ítems esenciales: la fibra óptica, las redes informáticas y los primeros videojuegos; uno de los más icónicos es Spacewar.
    Poco antes, entre 1958 y 1959, hay otro logro esencial: Jack Kilby, de Texas Instruments, consigue la integración de varios componentes electrónicos en un solo circuito. Robert Noyce, de Fairchild, crea el primer circuito integrado de silicio, que es el tipo que se usa hoy. Salvo contadas excepciones, todo lo que se enchufa o usa baterías emplea actualmente circuitos integrados; y no sólo el smartphone o la tele, sino también los barcos, los aviones, tu heladera o tu reloj de pulsera. Con este invento Kilby y Noyce han puesto en marcha una rueda que girará cada vez más rápido.
    En 1956 aparece otro precedente crucial: el primer disco rígido de producción en serie, el RAMAC 350 de IBM. Pesa más de una tonelada y almacena 5 millones de bytes (de 6 bits), unos 3,75 MB de hoy. Ese año se inician también las investigaciones sobre inteligencia artificial en la Universidad de Dartmouth; Marvin Minsky es, entre otros, uno de los pioneros.

    AÑO POR AÑO

    1960. Theodore Maiman hace funcionar el primer láser, una tecnología cuya historia se remonta a las ideas de Einstein y Planck, y que en poco más de 20 años nos dará el disco compacto.
    1962. Primera transmisión de transatlántica de TV vía satélite.
    1963. Douglas Engelbart inventa el mouse. El genial y en su momento poco comprendido ratón es el mecanismo con que cientos de millones de seres humanos hacen su trabajo diario hoy. Engelbart sienta también las bases de las interfaces gráficas; las ventanas, iconos y menús, en suma.
    1964. Aparece el System/360 de IBM, la primera familia de computadoras que comparte el mismo conjunto de instrucciones; los clientes pueden arrancar con un modelo básico y hacer upgrades cuando lo necesiten. Ha nacido la idea de actualizarse. John Kemeny y Thomas Kurtz diseñan el lenguaje de programación BASIC; su objetivo era que todos los alumnos, no sólo los de ciencias e ingeniería, pudieran programar computadoras, una idea que todavía hoy sigue sin ser comprendida en muchos países; entre otros, la Argentina.
    1966. Ralph Baer describe en 4 páginas la idea de los jueguitos para TV; es decir, inventa la consola de videojuegos. De hecho, diseñará la primera (ver 1972). Nace el primer simulador de vuelo.
    1968. Primera pantalla de LCD operativa. Crean el primer casco de realidad virtual.
    1969. El 29 de octubre se comunican los dos primeros nodos de Arpanet, la predecesora de Internet.
    1970. Nacen Unix y el lenguaje C. Hoy, casi todos los sistemas operativos para computadoras, tablets y smartphones son de tipo Unix, con la excepción, claro, de Windows. C sigue siendo, junto con sus descendientes (C++ y C#) y parientes (Java, por ejemplo), el lenguaje de programación más usado del mundo.
    1971. Intel inventa el microprocesador. Todos los dispositivos digitales que usamos hoy tienen alguna clase de microprocesador, también conocido como cerebro electrónico. Nace la impresora láser. Ray Tomlinson inventa el correo electrónico. El diskette, que había sido desarrollado a fines de la década del '60, aparece como producto comercial. Estados Unidos inicia la investigación de lo que se convertirá en reconocimiento de voz.
    1972. Lanzan la primera calculadora científica de bolsillo, la HP 35. Magnavox empieza a vender la primera consola de videojuegos hogareña, la Odissey (diseñada por Ralph Baer). Es la abuela de la Play. También sale el Pong, el primer videogame que se vuelve un éxito comercial; se lo considera el fundador de la industria, hoy multimillonaria, de los videojuegos.
    1973. Martin Cooper hace la primera llamada desde un teléfono celular. Bob Metcalfe, en el Xerox PARC, desarrolla Ethernet, que sigue siendo la más difundida de las tecnologías para redes locales cableadas. Tu notebook tiene en alguno de sus costados un conector Ethernet.
    1974. Se usa por primera vez el código de barras en un producto comercial.
    1975. Lanzan la Altair 8800, una microcomputadora destinada a hobbistas que daría el puntapié inicial de una línea comercial que llevaría primero a la Apple I y luego a la IBM/PC. Este es el año en que se funda Microsoft (que por entonces se escribía MicroSoft), cuyo primer producto es un lenguaje de programación para esta máquina, el Altair BASIC. Se usa por primera vez la palabra fractal. Kodak fabrica la primera cámara de fotos que usa un sensor electrónico en lugar de película.
    1976. Apple, fundada este mismo año, lanza su primer producto, la Apple I.
    1977. Sale la Apple II, que se venderá durante 11 años, y cuyo éxito en los departamentos de finanzas fuerza a IBM a producir la PC.
    1978. Ponen en órbita el primer satélite experimental de GPS.
    1979. Se pone en marcha la primera red celular comercial automatizada en Japón, por la compañía NTT.
    1980. Nace el Pac-Man, el primer videojuego que se convierte en un fenómeno cultural y social, tres décadas antes de Angry Birds y Candy Crush.
    1981. El 12 de agosto IBM lanza la PC. Será el estándar de informática personal durante 30 años, hasta la aparición de la iPad, y sigue siendo el principal instrumento informático de productividad en el mundo industrializado.
    1982. Nace el disco compacto de audio.
    1983. Tras completarse la migración a los protocolos TCP/IP, el 1° de enero nace Internet. Arpanet se convierte en historia. Patentan una tecnología que se convertirá en el futuro en NFC (Near Field Communication).
    1984. Apple lanza la Macintosh, la primera computadora comercialmente exitosa con interfaz gráfica (ventanas, íconos, menús e íconos) y mouse. En 1983 habían anunciado LISA, la primera computadora comercial con estas características, pero con un precio de 9995 dólares (casi 23.000 de hoy) fue un fracaso completo. La primera computadora de la historia con interfaz gráfica es la Xerox Alto, de 1973, pero no fue ofrecida comercialmente. En la Unión Soviética, Alexei Pajitnov crea el Tetris. El DynaTAC 8000X de Motorola es el primer celular disponible comercialmente.
    1985. Richard Stallman funda la Free Software Foundation, cuya Licencia Pública General permitirá la revolución del software libre. Lanzan la Commodore Amiga, la primera computadora multimedia. Steve Jobs funda NeXT, cuyo sistema operativo es antepasado del Mac OS X y el iOS.
    1986. Primer virus para PC, el Brain. Nace Pixar; las incontables películas de animación 3D de hoy se originan en esta visión de Jobs, que adquiere por 7 millones de dólares la división de computación de LucasFilms. Christopher Langton usa por primera vez el la frase vida artificial.
    1987. Nace el Photoshop. Un cuarto de siglo después, photoshopear es sinónimo de mejorar artificialmente las imágenes de la figura y el rostro humanos.
    1988. Jarkko Oikarinen inventa el servicio IRC (Internet Relay Chat), el chat propiamente dicho, que cobrará importancia global durante la primera Guerra del Golfo. El primer gusano informático, el Morris, infecta el 10% de las computadoras de la incipiente Internet. Lanzan la primera cámara digital comercial, la Fuji DS-1P.
    1989. Stallman escribe la Licencia Pública General. Se pone en órbita el primero de los 24 satélites de GPS. Se produce la primera acusación por fraude informático: Robert Morris recibe ese cargo por el gusano informático de 1988. Nintendo lanza el GameBoy, cuyo inmenso éxito (más de 118 millones de unidades vendidas) prefigura el negocio de los videogames para móviles. Nace la Internet pública en los Estados Unidos con el proveedor de servicios The World.
    1990. Tim Berners-Lee inventa la Web. Todavía no es pública. El allanamiento de la empresa Steve Jackson Games por parte del servicio secreto de Estados Unidos fomenta la creación de la Electronic Frontier Foundation, cuyo papel será crítico en la defensa de los derechos civiles en Internet y la sociedad de la información. En mayo la Argentina se conecta con Internet.
    1991. Nace Linux. Crean el antecesor de Wi-Fi.
    1992. Windows 3.1 finalmente lleva la interfaz gráfica a la PC, aunque todavía está muy lejos de lo que ofrece una Mac. Nacen los SMS.
    1993. La Web se hace pública. Nace Mosaic, el primer navegador. Microsoft lanza Windows NT, cuya línea continúa hoy en Windows Vista, 7, 8 y el todavía vigente XP.
    1994. Fundan Amazon y Yahoo! Ericsson inventa el Bluetooth.
    1995. Microsoft lanza Windows 95. Nace eBay. El 14 de julio la Sociedad Fraunhofer escoge la extensión .mp3 para los archivos de música comprimida; nace el primer reproductor de MP3. Basado en conceptos que se remontan a 1894, ha nacido el formato sonido que revolucionará la industria de la música. Anuncian el DVD.
    1996. Nace, de la mano de la compañía Mirabilis, el ICQ, el primer mensajero instantáneo del mundo. Todos los demás, desde el MSN Messenger hasta el Whatsapp, son descendientes de aquél. Se patenta la tinta electrónica del tipo que usan los e-readers actuales. Crean el primer smartphone. Se llama Nokia 9000 Communicator y será la tapa de la primera edición del suplemento Informática de LA NACION, el 22 de abril de ese año. Es una foto del futuro.
    1997. Como en una película de ciencia ficción, el nuevo campeón mundial de ajedrez es una computadora, la Deep Blue de IBM, que vence a Garry Kasparov. La máquina es capaz de evaluar 200 millones de posiciones por segundo (así no vale). A propósito, este es el año en que Jobs regresa a Apple, dato no menor, porque el hombre producirá en algo más de una década 3 de los dispositivos más disruptivos de la actualidad: el iPod, el iPhone y la iPad. Entre tanto, sale la Palm Pilot, que será el primer asistente digital comercialmente exitoso.
    1998. En septiembre Larry Page y Sergey Brin fundan Google.
    1999. En junio nace el servicio Napster. El compartir música se vuelve global y se enciende una luz de alarma en la industria discográfica. Metallica es la banda que inicia las demandas judiciales que terminarán por cerrar el servicio en julio de 2001. Este es también el año de la aceleración de video 3D; con la Voodoo 3 y otras placas para PC, los videojuegos con imágenes realistas están cada día más cerca. Hoy son un hecho.
    2000. El mundo está jaqueado, por primera vez en su historia, por un error de software. Sin embargo, advertido a tiempo, los problemas del bug del 2000 (o Y2K) resultan menores. Este año los microprocesadores superan la barrera del GHz, es decir, sus circuitos funcionan a 1000 millones de ciclos por segundo.
    2001. Se derrumba la burbuja Puntocom. Nacen la Wikipedia y el iPod.
    2002. Kevin Warwick consigue la primera comunicación electrónica directa entre dos sistemas nerviosos humanos. Esta noticia todavía no ha tenido derivados masivos, pero tengo la impresión de que lo hará en el futuro.
    2003. Nace Skype. Aunque todavía nadie lo sabe, el teléfono convencional, acorralado por los celulares y la voz sobre IP, ve llegar el fin de su predominio, luego de casi 130 años. Apple lanza iTunes y revoluciona la venta minorista de música. Lanzan la red social MySpace
    2004. Nace Facebook
    2005. Lanzan YouTube. Toshiba produce el primer disco rígido comercial con tecnología de grabación magnética perpendicular; dará origen a discos duros de capacidades insólitas (ver 2007). Google anuncia Maps.
    2006. Aparece Twitter.
    2007. Sale el iPhone. Amazon lanza el Kindle. Google empieza a ofrecer Street View. Netflix, fundada 10 años atrás como un videoclub online, comienza a transmitir películas y series por Internet. Hitachi lanza el primer disco duro de 1 terabyte (es decir, puede almacenar tanta información como la de una pila de Biblias de 12 kilómetros de altura).
    2008. Primer smartphone con Android disponible comercialmente (el HTC Dream). Apple presenta su AppStore y una nueva forma de comercializar software conmociona el mercado tradicional. Nace el Blu-ray.
    2009. Aparece la moneda virtual Bitcoin. La muerte de Michael Jackson colapsa la Internet.
    2010. Apple lanza la iPad. Marcará el fin del predominio de la PC como dispositivo de informática hogareña.
    2010-2011. Wikileaks filtra documentos clasificados de las embajadas de Estados Unidos.
    2011. Las redes sociales y los SMS cumplen un rol protagónico en la Primavera Árabe.
    2012. Deja de salir la edición impresa de la Enciclopedia Britannica. Implantan el primer ojo biónico en un ser humano.
    2013. Edward Snowden da a conocer la vigilancia masiva de los organismos de inteligencia de Estados Unidos y otros países. Las primeras impresoras 3D están disponibles para uso doméstico; se crea la primera arma de fuego mediante esta tecnología.
    2014. Google promete empezar a vender sus Glass, aunque para entonces ya hay una docena de dispositivos de computación de vestir. Y, ya que estamos, ¡que sea un gran año para todos nuestros lectores!