Mostrando entradas con la etiqueta historia informatica. Mostrar todas las entradas
Mostrando entradas con la etiqueta historia informatica. Mostrar todas las entradas

miércoles, 1 de enero de 2014

Un Interesante Articulo sobre la evolución de la Tecnología en 5 decadas


Cinco décadas de inventos disruptivos

Por  | LA NACION

Estábamos preparando nuestro anuario y me puse a pensar que en general existe la sensación de que esta industria va muy rápido. En realidad es más complicado, como se verá enseguida, pero, redondeando, sí, no da paz. Pero, ¿cuán rápido marcha en realidad la tecnología digital de consumo?
Me puse a recorrer, primero de memoria, después con la documentación, la lista de los desarrollos desde el transistor MOSFET en 1960 y, poco a poco, se fue develando un patrón insólito. Desde entonces, nacerían dispositivos, procedimientos o servicios disruptivos casi cada año; en muchos casos, varios por año.
Es notable, porque durante gran parte de su historia la civilización vio aparecer inventos a un ritmo de 4 o 5 por siglo. Eso cambió en 1455, con la revolución científica y técnica disparada por laimprenta de Gutenberg , que terminaría por dar origen a la Revolución Industrial. A mediados del siglo XX, la electrónica digital impulsó esa creatividad hasta niveles nunca antes vistos.
Los párrafos que siguen intentan no sólo una enumeración, que de por sí corta el aliento, sino mostrar, allí donde no sea evidente, la forma en que estos desarrollos cambiaron nuestra vida cotidiana para siempre. En general sólo menciono los primeros dispositivos operativos, aunque muchos tienen largas y complejas historias que pueden remontarse varios siglos (como el LCD o la computadora) o milenios (como los robots o la inteligencia artificial). La lista no puede ser completa, por un número de razones, pero he tratado de incluir todo lo que ha producido una revolución en la forma en que trabajamos, nos entretenemos, nos comunicamos, consumimos cultura, y así. Aceptaré con gusto cualquier añadido que esté dentro de estos parámetros, lo mismo que cualquier enmienda. Mi intención es que esta lista quede como una buena fuente de consulta.

LOS ORÍGENES

Empezaré por el transistor, el componente básico de los cerebros electrónicos modernos. Nace, para reemplazar las válvulas de vacío, en 1947. En 1954 aparece el primer transistor de silicio. Entonces, en ese año fundacional de 1960, desarrollan el primer transistor de efecto de campo metal-óxido-semiconductor (MOSFET, por sus siglas en inglés); sigue siendo el tipo de transistor más usado en la electrónica digital.
La década del '60 verá aparecer, entre otros que se listan abajo, 3 ítems esenciales: la fibra óptica, las redes informáticas y los primeros videojuegos; uno de los más icónicos es Spacewar.
Poco antes, entre 1958 y 1959, hay otro logro esencial: Jack Kilby, de Texas Instruments, consigue la integración de varios componentes electrónicos en un solo circuito. Robert Noyce, de Fairchild, crea el primer circuito integrado de silicio, que es el tipo que se usa hoy. Salvo contadas excepciones, todo lo que se enchufa o usa baterías emplea actualmente circuitos integrados; y no sólo el smartphone o la tele, sino también los barcos, los aviones, tu heladera o tu reloj de pulsera. Con este invento Kilby y Noyce han puesto en marcha una rueda que girará cada vez más rápido.
En 1956 aparece otro precedente crucial: el primer disco rígido de producción en serie, el RAMAC 350 de IBM. Pesa más de una tonelada y almacena 5 millones de bytes (de 6 bits), unos 3,75 MB de hoy. Ese año se inician también las investigaciones sobre inteligencia artificial en la Universidad de Dartmouth; Marvin Minsky es, entre otros, uno de los pioneros.

AÑO POR AÑO

1960. Theodore Maiman hace funcionar el primer láser, una tecnología cuya historia se remonta a las ideas de Einstein y Planck, y que en poco más de 20 años nos dará el disco compacto.
1962. Primera transmisión de transatlántica de TV vía satélite.
1963. Douglas Engelbart inventa el mouse. El genial y en su momento poco comprendido ratón es el mecanismo con que cientos de millones de seres humanos hacen su trabajo diario hoy. Engelbart sienta también las bases de las interfaces gráficas; las ventanas, iconos y menús, en suma.
1964. Aparece el System/360 de IBM, la primera familia de computadoras que comparte el mismo conjunto de instrucciones; los clientes pueden arrancar con un modelo básico y hacer upgrades cuando lo necesiten. Ha nacido la idea de actualizarse. John Kemeny y Thomas Kurtz diseñan el lenguaje de programación BASIC; su objetivo era que todos los alumnos, no sólo los de ciencias e ingeniería, pudieran programar computadoras, una idea que todavía hoy sigue sin ser comprendida en muchos países; entre otros, la Argentina.
1966. Ralph Baer describe en 4 páginas la idea de los jueguitos para TV; es decir, inventa la consola de videojuegos. De hecho, diseñará la primera (ver 1972). Nace el primer simulador de vuelo.
1968. Primera pantalla de LCD operativa. Crean el primer casco de realidad virtual.
1969. El 29 de octubre se comunican los dos primeros nodos de Arpanet, la predecesora de Internet.
1970. Nacen Unix y el lenguaje C. Hoy, casi todos los sistemas operativos para computadoras, tablets y smartphones son de tipo Unix, con la excepción, claro, de Windows. C sigue siendo, junto con sus descendientes (C++ y C#) y parientes (Java, por ejemplo), el lenguaje de programación más usado del mundo.
1971. Intel inventa el microprocesador. Todos los dispositivos digitales que usamos hoy tienen alguna clase de microprocesador, también conocido como cerebro electrónico. Nace la impresora láser. Ray Tomlinson inventa el correo electrónico. El diskette, que había sido desarrollado a fines de la década del '60, aparece como producto comercial. Estados Unidos inicia la investigación de lo que se convertirá en reconocimiento de voz.
1972. Lanzan la primera calculadora científica de bolsillo, la HP 35. Magnavox empieza a vender la primera consola de videojuegos hogareña, la Odissey (diseñada por Ralph Baer). Es la abuela de la Play. También sale el Pong, el primer videogame que se vuelve un éxito comercial; se lo considera el fundador de la industria, hoy multimillonaria, de los videojuegos.
1973. Martin Cooper hace la primera llamada desde un teléfono celular. Bob Metcalfe, en el Xerox PARC, desarrolla Ethernet, que sigue siendo la más difundida de las tecnologías para redes locales cableadas. Tu notebook tiene en alguno de sus costados un conector Ethernet.
1974. Se usa por primera vez el código de barras en un producto comercial.
1975. Lanzan la Altair 8800, una microcomputadora destinada a hobbistas que daría el puntapié inicial de una línea comercial que llevaría primero a la Apple I y luego a la IBM/PC. Este es el año en que se funda Microsoft (que por entonces se escribía MicroSoft), cuyo primer producto es un lenguaje de programación para esta máquina, el Altair BASIC. Se usa por primera vez la palabra fractal. Kodak fabrica la primera cámara de fotos que usa un sensor electrónico en lugar de película.
1976. Apple, fundada este mismo año, lanza su primer producto, la Apple I.
1977. Sale la Apple II, que se venderá durante 11 años, y cuyo éxito en los departamentos de finanzas fuerza a IBM a producir la PC.
1978. Ponen en órbita el primer satélite experimental de GPS.
1979. Se pone en marcha la primera red celular comercial automatizada en Japón, por la compañía NTT.
1980. Nace el Pac-Man, el primer videojuego que se convierte en un fenómeno cultural y social, tres décadas antes de Angry Birds y Candy Crush.
1981. El 12 de agosto IBM lanza la PC. Será el estándar de informática personal durante 30 años, hasta la aparición de la iPad, y sigue siendo el principal instrumento informático de productividad en el mundo industrializado.
1982. Nace el disco compacto de audio.
1983. Tras completarse la migración a los protocolos TCP/IP, el 1° de enero nace Internet. Arpanet se convierte en historia. Patentan una tecnología que se convertirá en el futuro en NFC (Near Field Communication).
1984. Apple lanza la Macintosh, la primera computadora comercialmente exitosa con interfaz gráfica (ventanas, íconos, menús e íconos) y mouse. En 1983 habían anunciado LISA, la primera computadora comercial con estas características, pero con un precio de 9995 dólares (casi 23.000 de hoy) fue un fracaso completo. La primera computadora de la historia con interfaz gráfica es la Xerox Alto, de 1973, pero no fue ofrecida comercialmente. En la Unión Soviética, Alexei Pajitnov crea el Tetris. El DynaTAC 8000X de Motorola es el primer celular disponible comercialmente.
1985. Richard Stallman funda la Free Software Foundation, cuya Licencia Pública General permitirá la revolución del software libre. Lanzan la Commodore Amiga, la primera computadora multimedia. Steve Jobs funda NeXT, cuyo sistema operativo es antepasado del Mac OS X y el iOS.
1986. Primer virus para PC, el Brain. Nace Pixar; las incontables películas de animación 3D de hoy se originan en esta visión de Jobs, que adquiere por 7 millones de dólares la división de computación de LucasFilms. Christopher Langton usa por primera vez el la frase vida artificial.
1987. Nace el Photoshop. Un cuarto de siglo después, photoshopear es sinónimo de mejorar artificialmente las imágenes de la figura y el rostro humanos.
1988. Jarkko Oikarinen inventa el servicio IRC (Internet Relay Chat), el chat propiamente dicho, que cobrará importancia global durante la primera Guerra del Golfo. El primer gusano informático, el Morris, infecta el 10% de las computadoras de la incipiente Internet. Lanzan la primera cámara digital comercial, la Fuji DS-1P.
1989. Stallman escribe la Licencia Pública General. Se pone en órbita el primero de los 24 satélites de GPS. Se produce la primera acusación por fraude informático: Robert Morris recibe ese cargo por el gusano informático de 1988. Nintendo lanza el GameBoy, cuyo inmenso éxito (más de 118 millones de unidades vendidas) prefigura el negocio de los videogames para móviles. Nace la Internet pública en los Estados Unidos con el proveedor de servicios The World.
1990. Tim Berners-Lee inventa la Web. Todavía no es pública. El allanamiento de la empresa Steve Jackson Games por parte del servicio secreto de Estados Unidos fomenta la creación de la Electronic Frontier Foundation, cuyo papel será crítico en la defensa de los derechos civiles en Internet y la sociedad de la información. En mayo la Argentina se conecta con Internet.
1991. Nace Linux. Crean el antecesor de Wi-Fi.
1992. Windows 3.1 finalmente lleva la interfaz gráfica a la PC, aunque todavía está muy lejos de lo que ofrece una Mac. Nacen los SMS.
1993. La Web se hace pública. Nace Mosaic, el primer navegador. Microsoft lanza Windows NT, cuya línea continúa hoy en Windows Vista, 7, 8 y el todavía vigente XP.
1994. Fundan Amazon y Yahoo! Ericsson inventa el Bluetooth.
1995. Microsoft lanza Windows 95. Nace eBay. El 14 de julio la Sociedad Fraunhofer escoge la extensión .mp3 para los archivos de música comprimida; nace el primer reproductor de MP3. Basado en conceptos que se remontan a 1894, ha nacido el formato sonido que revolucionará la industria de la música. Anuncian el DVD.
1996. Nace, de la mano de la compañía Mirabilis, el ICQ, el primer mensajero instantáneo del mundo. Todos los demás, desde el MSN Messenger hasta el Whatsapp, son descendientes de aquél. Se patenta la tinta electrónica del tipo que usan los e-readers actuales. Crean el primer smartphone. Se llama Nokia 9000 Communicator y será la tapa de la primera edición del suplemento Informática de LA NACION, el 22 de abril de ese año. Es una foto del futuro.
1997. Como en una película de ciencia ficción, el nuevo campeón mundial de ajedrez es una computadora, la Deep Blue de IBM, que vence a Garry Kasparov. La máquina es capaz de evaluar 200 millones de posiciones por segundo (así no vale). A propósito, este es el año en que Jobs regresa a Apple, dato no menor, porque el hombre producirá en algo más de una década 3 de los dispositivos más disruptivos de la actualidad: el iPod, el iPhone y la iPad. Entre tanto, sale la Palm Pilot, que será el primer asistente digital comercialmente exitoso.
1998. En septiembre Larry Page y Sergey Brin fundan Google.
1999. En junio nace el servicio Napster. El compartir música se vuelve global y se enciende una luz de alarma en la industria discográfica. Metallica es la banda que inicia las demandas judiciales que terminarán por cerrar el servicio en julio de 2001. Este es también el año de la aceleración de video 3D; con la Voodoo 3 y otras placas para PC, los videojuegos con imágenes realistas están cada día más cerca. Hoy son un hecho.
2000. El mundo está jaqueado, por primera vez en su historia, por un error de software. Sin embargo, advertido a tiempo, los problemas del bug del 2000 (o Y2K) resultan menores. Este año los microprocesadores superan la barrera del GHz, es decir, sus circuitos funcionan a 1000 millones de ciclos por segundo.
2001. Se derrumba la burbuja Puntocom. Nacen la Wikipedia y el iPod.
2002. Kevin Warwick consigue la primera comunicación electrónica directa entre dos sistemas nerviosos humanos. Esta noticia todavía no ha tenido derivados masivos, pero tengo la impresión de que lo hará en el futuro.
2003. Nace Skype. Aunque todavía nadie lo sabe, el teléfono convencional, acorralado por los celulares y la voz sobre IP, ve llegar el fin de su predominio, luego de casi 130 años. Apple lanza iTunes y revoluciona la venta minorista de música. Lanzan la red social MySpace
2004. Nace Facebook
2005. Lanzan YouTube. Toshiba produce el primer disco rígido comercial con tecnología de grabación magnética perpendicular; dará origen a discos duros de capacidades insólitas (ver 2007). Google anuncia Maps.
2006. Aparece Twitter.
2007. Sale el iPhone. Amazon lanza el Kindle. Google empieza a ofrecer Street View. Netflix, fundada 10 años atrás como un videoclub online, comienza a transmitir películas y series por Internet. Hitachi lanza el primer disco duro de 1 terabyte (es decir, puede almacenar tanta información como la de una pila de Biblias de 12 kilómetros de altura).
2008. Primer smartphone con Android disponible comercialmente (el HTC Dream). Apple presenta su AppStore y una nueva forma de comercializar software conmociona el mercado tradicional. Nace el Blu-ray.
2009. Aparece la moneda virtual Bitcoin. La muerte de Michael Jackson colapsa la Internet.
2010. Apple lanza la iPad. Marcará el fin del predominio de la PC como dispositivo de informática hogareña.
2010-2011. Wikileaks filtra documentos clasificados de las embajadas de Estados Unidos.
2011. Las redes sociales y los SMS cumplen un rol protagónico en la Primavera Árabe.
2012. Deja de salir la edición impresa de la Enciclopedia Britannica. Implantan el primer ojo biónico en un ser humano.
2013. Edward Snowden da a conocer la vigilancia masiva de los organismos de inteligencia de Estados Unidos y otros países. Las primeras impresoras 3D están disponibles para uso doméstico; se crea la primera arma de fuego mediante esta tecnología.
2014. Google promete empezar a vender sus Glass, aunque para entonces ya hay una docena de dispositivos de computación de vestir. Y, ya que estamos, ¡que sea un gran año para todos nuestros lectores!

domingo, 29 de septiembre de 2013

Historia de la OFICINA

Cómo el computador cambió la oficina para siempre



LEO, primera computadora británica para negocios
LEO era fabricada por una tienda británica especializada en té.
¿Recuerda cómo era la oficina antes del correo electrónico? ¿Cómo era todo antes de que perdiéramos el tiempo viendo videos de gatos y haciendo compras en línea de manera subrepticia?
A manera de experimento, apagué la computadora de mi oficina y no la volví a prender en todo el día. Me di cuenta de que podía pensar, pero no tenía nada en qué pensar. No podía trabajar o comunicarme. No podía siquiera holgazanear. No era persona.
Hoy en día, la computadora es la oficina. Se ha apropiado metafóricamente de ella y dentro de las computadoras tenemos escritorios, archivos, documentos, hasta papeleras. Y todo parece que haber sucedido tan rápido.
En 1975 la revista Business Week publicó un artículo titulado "La oficina del futuro". En él, George E. Pake, jefe de investigación de Xerox, predijo "una revolución en los próximos 20 años", que involucraba un pantalla de televisión colocada sobre un escritorio.
"Seré capaz de buscar en la pantalla documentos de mis archivos presionando un botón", vaticinó Pake. "Podré ver mi correo o cualquier otro mensaje. No se cuántas copias en papel voy a necesitar en un mundo así. Va a cambiar nuestra vida cotidiana y eso puede ser un poco pavoroso".
Resulta que Pake tenía razón. Lo único en lo que se equivocó fue en el tema de la impresión en papel. Nuestro amorío con las computadoras no le ha puesto fin a nuestro amor por los papeles.
Apenas en los últimos años que hemos dejado de imprimir todos y cada uno de los correos que enviamos o recibimos. Por ahora, se puede seguir diciendo eso de que la oficina sin papel llegará cuando llegue el baño sin papel.

Londres, no California

vista de un edificio de ofinas de Londres
La computadora cambió la carga de trabajo y los roles profesionales en la oficina.
Las primeras computadoras no llegaron a la oficina en los 70 o en los 80. Llegaron al menos veinte años antes, en los 50, y no a la atractiva y soleada California, sino de la desaliñada y húmeda Hammersmith, en el oeste de Londres.
"Cerebros electrónicos ¿Cosas de la ciencia ficción? No. Es la primera exhibición de computadoras en el Olympia de Londres", decía una nota de publicidad, "las máquinas que quitan el afán en el manejo de los números".
El lugar donde esos cerebros electrónicos fueron pioneros fue un salón de té: la institución británica que es Lyons.
El hombre detrás del plan fue John Simmons, un matemático de Cambridge que soñaba con una máquina que sumara los recibos por la venta de los pastelitos. El monstruo de 6000 válvula que fabricó se llamó LEO, por Lyons Electronic Office, y no tenía duda de lo beneficioso que podía ser.
Pasar de pastelitos a computadoras fue una de las más extrañas diversificaciones en la historia de los negocios, y fue todo un problema a la hora del mercadeo.
El potencial usuario de computadoras necesita tener mucha confianza en su propio criterio si va a comprar una computadora fabricada en un salón de té.
Para los años 60, las poderosas computadoras "mainframe" importadas de Estados Unidos, habían llegado a las oficinas. Pero la visión de Simmons de que las computadoras liberarían a los trabajadores de tareas tediosas no fue del todo correcta.
Simplemente cambio un trabajo aburrido por otro. Hasta el copiado que hacían los oficinistas del siglo XIX parecía más interesante que eso de estar perforando tarjetas para alimentar las computadoras.
Algunos operadores decían que les ponía los nervios de punta, en parte porque el número de cajas de tarjetas indicaba el rendimiento laboral, aún en caso de que los supervisores no mantuvieran el conteo oficial de producción.

Llegó la palabra

Centro de procesamiento de palabras en oficina de los años 60
El procesador de palabras liberó a las secretarias a tal punto que las dejó sin trabajo.
Las computadoras manejaban números, pero para el oficinista promedio la verdadera revolución vino con la llegada de los procesadores de palabra.
El concepto lo inventó el alemán Ulrich Steinhilper, quien en los años 50 dejó la idea en el buzón de sugerencias de la estadounidense IBM y recibió unos 25 marcos alemanes en compensación. Pero a alguien en la alta gerencia le pareció muy complicado, así que no pasó nada. Al menos, no por un tiempo.
Pero ya para los años 70 el procesamiento de palabras estaba en pleno desarrollo. Era la época de los procesadores de comida, así que las nuevas máquinas para oficinas ofrecían para las cartas y comunicaciones el mismo tratamiento milagroso que recibían zanahorias y demás vegetales.
En ese entonces la idea era muy distinta a simplemente teclear en una portátil. Se pensaba que el procesamiento de palabras lo harían equipos de especialistas que alimentarían maquinas editoras de textos.
A las mujeres, el procesamiento de palabras se les vendió como una innovación feminista.
El diario The New York Times proclamaba en 1971 que era "una respuesta a las plegarias de las activistas de la liberación de la mujer", porque implicaba que las mujeres ya no tendrían que hacer trabajos serviles como el de tomar dictado.
Pero una vez más, no pasó de esa manera. Ser promovido a los nuevos equipos de procesadores de palabras era solo un poco más divertido que aquello de perforar tarjetas.
Para el resto de nosotros, el procesamiento de palabras no sucedió hasta la llegada de las computadoras de escritorio. En 1977 Apple presentó la Apple II. Cuatro años más tarde IBM introdujo la PC.
Desde entonces, la manera como usamos las computadoras ahora es tan simple que ha reprogramado nuestros cerebros.

Liberadora y democratizadora

hombres en una oficina
La computadora trajo consigo a los hombres del "departamento de sistemas".
Cuando en los 80 y 90 todo el mundo en la oficina empezó a aprender a usar estas maquinas, el trabajo se redistribuyó.
El trabajo grueso lo hacían las PC; el resto, como mandar correos electrónicos y manejar agendas, empezamos a hacerlo nosotros mismos.
La computadora ha sido una fuerza liberadora y democratizadora. Pero no tan atractiva para la secretaria, pues si bien es cierto que dejó de hacer el trabajo pesado, también lo es que en muchos espacios perdió el empleo.
La imagen de la computadora también cambió. A medida que se fueron haciendo más inteligentes, pasaron de ser usadas por las subvaloradas empleadas del bajo nivel secretarial a entrar al dominio de los hombres.
Porque si las secretarias estaban de salida, el departamento de sistemas estaba haciendo su entrada. Ahora una de cada cinco personas que trabajan con computadores es mujer.

De doble filo

Las computadoras son tan inteligentes que a veces parece que ellas piensas por nosotros.
"Las hojas de cálculo han hecho que el más humilde analista parezca un genio"
Gracias las hojas de cálculo que ha hecho que el más humilde analista parezca un genio.
Esta innovación se logró a finales de los 70 cuando Dan Bricklin y Bob Frankston crearon un proyecto llamado VisiCalc. La maravilla era que permitía recalcular instantáneamente toda una línea de sumas con simplemente cambiar un número.
VisiCalc fue adoptado por Wall Street. Las fusiones y adquisiciones se convirtieron en un juego de niños y los análisis financieros pasaron a un nuevo nivel.
Ahora damos como un hecho natural las hojas de cálculo. Son maravillosas, pero también han sido catastróficas. Fueron ellas las que nos permitieron el desarrollo de esa intrincada magia financiera. Y ya sabemos a dónde nos condujo eso.
Un arma aún más de doble filo fue la invención que en 1985 hizo una pareja de estadounidenses de un sistema para colocar gráficos, puntos destacados y diagramas de flujo en laminas.
Se llamaba Presenter, dos años después fue vendido a Microsoft por menos de US$30 millones, se rebautizó como PowerPoint y ahora cualquier tonto con nada que decir puede cortar aquí, pegar allá y dar una presentación interminable. Y vaya que lo hacen. Todo el tiempo. En todas partes.

jueves, 6 de junio de 2013

Feliz cumple de la WWW - 20 AÑITOS


Resucitarán la primera página web de la historia


Aniversario cibernético
Científicos europeos quieren reconstruir la primera web, que fue creada en 1993.
A veinte años del nacimiento de la llamada red de redes, un equipo del lugar donde se originó la internet busca resucitar la primera página de la historia para recordar los valores que inspiraron.
Un equipo de la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en inglés) anunció el proyecto, que implica preservar los equipos y los programas asociados con el nacimiento de la web.
Entre los valores fundamentales del proyecto en su origen estaban la descentralización del control de la red de redes y el libre acceso a la información para todo el mundo.
La World Wide Web (o www) fue creada en 1993 por el científico británico Sir Tim Berners-Lee, quien trabajaba para la CERN.
Según Dan Noyes, gerente de web del grupo de comunicación de la CERN, la recreación del primer sitio web del mundo permitirá a las futuras generaciones explorar, examinar y reflexionar acerca de cómo la web está cambiando la vida moderna.
"Este es un momento único porque todavía podemos encender el primer servidor web y apreciarlo. Queremos documentar eso y preservarlo", dijo Noyes a la BBC.

Valores originales

El genio británico
El creador de la web es el científico británico Sir Tim Berners-Lee.
El proyecto apunta a más que simplemente poner a funcionar viejos computadores NeXT -las máquinas más avanzadas de ese momento- en el lugar en que fue creada originalmente la web.
"Uno de mis sueños es permitirle a las personas ver cómo era en sus comienzos la experiencia de la web", explicó a la BBC James Gilles, jefe de comunicaciones de la CERN.
"Se podría pensar que el primer navegador era muy primitivo pero no lo era. Tenía posibildades gráficas. Uno podía editar directamente. Era algo realmente increíble, era muy sofisticado", añadió.
Pero quienes no conozcan mucho de tecnología o de internet podrían sentir que usar una computadora y programas informáticos de hace 20 años para ver texto en un sitio web podría no ser una experiencia muy emocionante.
Sin embargo, Gillies y Noyes consideran que vale la pena.
Sobre todo porque estos sistemas originales fueron desarrollados por Sir Berners-Lee bajo el principio de acceso universal a la información, algo que en ese momento los entusiastas creían que cambiaría el mundo haciéndolo un lugar más justo e igualitario.
El primer navegador permitía a los usuarios editar y escribir directamente sobre el contenido mientras era visto, algo que ya no es posible con los sistemas actuales.
"Ese acceso universal a la información y la flexibilidad para la entrega son algo que actualmente estamos luchando para recrear".
El impacto de la web
La web es parte de la vida cotidiana en el siglo XXI.

Acceso gratis

Cuando la CERN creó la web hace 20 años, uno de los aspectos más importantes fue su carácter gratuito.
En ese entonces, se discutió si la CERN debería convertirse en el hogar de la web o si el proyecto debería centrarse en su misión original de dedicarse exclusivamente a asuntos científicos concernientes a la física.
Al final imperó el criterio de Sir Bernes-Lee y sus colegas, quienes consideban que la organización debería poner la web a disposisción del público.
La CERN produjo un documento legal que declaraba a la www abierta al público para asegurar el libre acceso a todas las personas y que nadie pudiera reclamar propiedad sobre la red.
Gillies considera que este es el documento "más valioso en la historia de la World Wide Web".
"Sin ese documento habrían cosas parecidas a la web pero habrían pertenecido a empresas como Microsoft, Apple, Vodafone o alguna otra. No sería algo abierto para todo el mundo".

Cambios pendientes

"(...) mantener a la web como un instrumento disponible gratis es casi un derecho humano"
Niguel Shadbolt, Universidad de Southampton.
Sin embargo, la web no ha producido el grado de cambio social que algunos habían previsto hace 20 años, ya que este espacio todavía es dominado por un puñado de poderosas compañías en línea.
Para aquellos que estudian la World Wide Web, como el profesor Niguel Shadbolt, de la Universidad de Southampton, vale la pena conservar los principios sobre los cuales este instrumento fue concebido.
Y considera que no hay mejor monumento a esos principios que el primer sitio web.
"Tenemos que defender los principios de universalidad y de acceso universal", dijo Shadboldt a la BBC.
"Eso no calza en los estándares de ciertas organizaciones y corporaciones. Por eso mantener a la web como un instrumento disponible gratis es casi un derecho humano".
Diario BBC

miércoles, 30 de mayo de 2012

TEMA REDES

Primera pagina WEB:
Hace clic aca para verla


Una breve historia de la RED
En 1964 el Departamento de Defensa de los EE.UU. pide a la agencia DARPA (Defense Advanced Research Proyects Agency) la realización deinvestigaciones con el objetivo de lograr una red de ordenadores capaz de resistir un ataque nuclear. Para el desarrollo de esta investigación se partió de la idea de enlazar equipos ubicados en lugares geográficos distantes, utilizando como medio de transmisión la red telefónica existente en el país y una tecnología que había surgido recientemente en Europa con el nombre de Conmutación de Paquetes. Ya en 1969 surge la primera red experimental ARPANET, en 1971 esta red la integraban 15 universidades, el MIT; y la NASA; y al otro año existían 40 sitios diferentes conectados que intercambiaban mensajes entre usuarios individuales, permitían el control de un ordenador de forma remota y el envío de largos ficheros de textos o dedatos. Durante 1973 ARPANET desborda las fronteras de los EE.UU. al establecer conexiones internacionales con la "University College of London" deInglaterra y el "Royal Radar Establishment" de Noruega.

    • Clasificación según la cobertura del servicio en este caso pueden ser:
    Redes 
    LAN (Local Area Network), redes MAN (Metropolitan Area Network), redes WAN (Wide Area Network), redes internet y las redes inalámbricas. 

    • Protocolo 
  • Descripción formal de formatos de mensajes y reglas que dos o más ordenadores deben seguir para intercambiar mensajes. Los protocolos pueden describir detalles de bajo nivel de las interfaces de ordenador a ordenador o el intercambio entre programas de aplicación.
  • TCP/IP
Protocolo que proporciona transmisión fiable de paquetes de datos sobre redes. El nombre TCP / IP proviene de dos protocolos importantes de lafamilia, el Transmission Control Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100 protocolos diferentes.
  • ARPANET
Red pionera de gran alcance fundada por ARPA (Advanced Research Projects Agency) después DARPA. Sirvió de 1969 a 1990 como base para las primeras investigaciones de red durante el desarrollo de Internet. ARPANET consiste en nodos individuales conmutadores de paquetes interconectados por líneas arrendadas.
Fuente: monografias.com