domingo, 15 de junio de 2014

Tema 7 - La aldea global

Tema 7 - La aldea global 

INFORMACIÓN Y TECNOLOGÍA
 
En Septiembre de 2007, los monjes budistas de Birmania abandonaron sus tranquilos monasterios para encabezar manifestaciones pacíficas en defensa de la democracia.
Con los medios de comunicación controlados por una junta militar, en el poder desde 1962, Internet fue la clave para dar a conocer al mundo la situación en el país del sudeste asiático. Las protestas fueron reprimidas con violencias: llegaron a morir decenas de personas.
Las imágenes de las manifestaciones burlaron la censura y se enviaron por correo electrónico, los testimonios de la represión se difundieron en los blogs y en YouTube se pudo ver la opulenta vida de los generales birmanos en uno de los países con mayor pobreza y corrupción.
Los militares respondieron cortando el acceso a la Red durante una semana, pero no pudieron impedir que las noticias corrieran ya por el ciberespacio como la pólvora.
Miles de manifestaciones, coordinados en ciudades de los cinco continentes, exigían a sus gobiernos una reacción.
Los activistas se habían auto organizado en Internet por medio de Facebook, una red social de contactos que fue creada originalmente para hacer amigos en la universidad.
A un canadiense de 19 años, que había viajado ese verano por Birmania, se le ocurrió usar ese mismo sistema para iniciar una campaña política. En pocos días tenía a 300.000 personas apoyándole: era la envidia de cualquier ONG.
Ante esta movilización global, algunos líderes de las principales potencias respondieron prometiendo sanciones contra la dictadura Birmania.
Internet ya no es solo un sitio donde acceder gratis a información de todo tipo y descubrir qué está pasando en cualquier país, sino que permite a cualquier ciudadano intervenir en la política internacional.
Una misma persona puede redactar y también corregir la mayor enciclopedia del mundo, comprar libros y antigüedades en una subasta internacional, colaborar en la investigación de una cura para el sida, difundir sus propias noticias por todo el planeta, descubrir y promocionar nuevos talentos musicales o, simplemente, divertirse o compartir sus vivencias con la familia y los amigos aunque estén lejos. Todas esas cosas, inaccesibles en solitario, son posibles cuando los individuos se conectan entre sí con sus ordenadores, consolas y dispositivos móviles.
Esas multitudes interconectadas comparten tanto información como recursos y forman redes y comunidades. Todo ello gracias a unas armas de colaboración masiva: las tecnologías de la información.



INTERNET: NACIDA PARA COMPARTIR
 
Es difícil imaginarse el mundo sin Internet, pero ¿puede estropearse la Red?

¿QUÉ ES UNA RED?


El término genérico "red" hace referencia a un conjunto de entidades (objetos, personas, etc.) conectadas entre sí. Por lo tanto, una red permite que circulen elementos materiales o inmateriales entre estas entidades, según reglas bien definidas.
  • red: Conjunto de equipos y dispositivos periféricos conectados entre sí. Se debe tener en cuenta que la red más pequeña posible está conformada por dos equipos conectados. 

En 2002 sufrimos varios apagones regionales en España durante unas horas y en Estados Unidos falló por un día uno de los mayores proveedores mundiales, WorldCom. Ese día muchos mensajes de correo electrónico llegaron con retraso, algunos incluso se perdieron y se ralentizó el tráfico por todo el ciberespacio.
Sin embargo, Internet fue diseñada a prueba de fallos: no existe una central en la que se pueda producir una avería que a su vez provoque un apagón mundial. Es como una red de pesca en la que los ordenadores son los nudos: la información logrará encontrar un camino entre dos nudos, aunque haya agujeros en medio. Una red así parece invulnerable. Y en plena Guerra Fría, eso entusiasmó a los jefes militares de Estados Unidos que pusieron en marcha Arpanet, la procesadora de Internet. 
Conocemos al concepto de ARPANET como una de las redes creadas por encargo del Departamento de Defensa de los Estados Unidos para poder establecer un importante nexo de comunicación entre los distintos Organismos Gubernamentales de la nación.

Se ha dicho que el proyecto nació como un sistema militar residente en una eventual ataque nuclear de los soviéticos.
Pero, en realidad, el Departamento de Defensa estadounidense financió Arpanet para que las universidades de ese país pudieran compartir sus ordenadores, conectándolos entre sí aunque fueran de distintos fabricantes y funcionaran de manera muy diferente. Así, en 1969 la comunidad científica de Estados Unidos empezó a compartir datos, novedades sobre sus investigaciones y mensajes personales.


Ciberespacio

 


 


Ciberespacio suele usarse como sinónimo de Internet, pero no se refiere a la red de comunicaciones en sí, sino al mundo virtual en el que existen las páginas web. Así pues, más que un complejo objeto como el que muestra la fotografía es una metáfora mejor representada en la ilusión visual: el triángulo blanco que no existe en ninguna parte pero une entre sí ordenadores de todo el planeta.

Ciberespacio

Conjunto o realidad virtual donde se agrupan usuarios, páginas web, chats, y demás servicios de Internet y otras redes. El término fue utilizado por primera vez por William Gibson, escritor norteamericano en su novela de ciencia ficción "Neuromante" publicada en 1984.

Paquetes de información
 
Ahí se acaba cualquier parecido con el correo tradicional. En el buzón virtual del remitente el mensaje se divide en partes que viajan por rutas diferentes, por cualquiera de los caminos posibles de esa red global, hasta llegar al buzón del destinatario. Es aquí donde se reúnen los trozos del mensaje y se recompone la postal electrónica.
En Internet la información siempre viaja troceada en pequeños paquetes de un máximo de 1500 bytes (que equivalen a 250 palabras de texto, una décima de segundo de música en MP3).
De esta manera, cuando se produce un mínimo corte o interferencia se reenvían de forma automática solo los paquetes extraviados y no hay que repetir la transmisión paquetes extraviados y no hay que repetir la transmisión entera, como sucede al mandar una página de fax por línea telefónica.
En su ruta, cada paquete puede pasar por cientos de ordenadores intermediarios, del mismo país o de otros; y funcionan con Windows, con Mac OS, con Linux o bien con cualquier otro sistema operativo.
En la Red todos hablan el mismo idioma, una especie de esperanto informático: el TCP/IP.


El TCP/IP
 



















El TCP/IP es el conjunto d protocolos que comenzó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet y garantizar que todos llegan a su destino.

 

¿Que es el TCP/IP? - Definición de TCP/IP

TCP/IP son las siglas de Protocolo de Control de Transmisión/Protocolo de Internet (en inglésTransmission Control Protocol/Internet Protocol), un sistema de protocolos que hacen posibles servicios Telnet, FTP, E-mail, y otros entre ordenadores que no pertenecen a la misma red.

El Protocolo de Control de Transmisión (TCP) permite a dos anfitriones establecer una conexión e intercambiar datos. El TCP garantiza la entrega de datos, es decir, que los datos no se pierdan durante la transmisión y también garantiza que los paquetes sean entregados en el mismo orden en el cual fueron enviados. 

El Protocolo de Internet (IP) utiliza direcciones que son series de cuatro números ocetetos (byte) con un formato de punto decimal, por ejemplo: 69.5.163.59 

Así nació la actual Internet. Redes de uno y otro país, redes públicas y privadas, redes de alta velocidad con cables de fibra óptica, redes más modestas por vía telefónica, redes inalámbricas...., todas se sumaron a la red original. 

La aportación europea fueron las páginas web, creadas en 1991, que popularizaron la Red. Más de 1300 millones de personas (uno de cada cinco habitantes del planeta) estaban conectados en 2008. Y cada día son más.


El reto no solo es aumentar ese número, sino también el porcentaje de conexiones de banda ancha (alta velocidad y acceso permanente) que es necesario para realizar el envío de archivos muy pesados y para disponer de servicios como la videoconferencia.


SÍMBOLOS Y DIRECCIONES DE INTERNET
 

La historia de la @ 

La arroba (@) es un símbolo utilizado en las direcciones de correo electrónico para separar el nombre del usuario del nombre del dominio, ambos necesarios para transmitir los emails. Por ejemplo, la dirección de email administrador@masadelante.com indica que el usuario administrador recibe correo electrónico "en"el dominio masadelante.com.
El símbolo arroba tiene distintos nombres segun el país. En inglés la arroba es conocida como el símbolo "at" (en), y otros países tienen otros nombres, muchos de estos países asocian el símbolo a nombres de alimentos o animales, por ejemplo, en Afrikaans se llama aapsert, que significa cola de mono y en croata I loca.

Además de en las direcciones de correo electrónico, esa <@> con melena peinada hacia atrás se usa como símbolo de modernidad. Sin embargo, la arroba ya navegaba hace cinco siglos en los barcos de los mercaderes venecianos. En una carta mercantil de 1536 aparece como abreviatura del ánfora, una  antigua unidad de peso y capacidad usada en el comercio por el Mediterráneo.
Tanto griegos como romanos usaban el ánfora, un cántaro alargado de cerámica, con una capacidad de 26,2 Litros.
Los comerciantes anglosajones la utilizaban desde el siglo XIX con el significado de <al precio de>. En sus libros de contabilidad anotaban cosas como <2 sillas @ 4 dólares>. Por eso el símbolo ya estaba en los teclados de las máquinas de escribir antes de que existiese internet.
La arroba saltó a la fama por casualidad en 1972. El ingeniero estadounidense Ray Tomlison diseñaba un sistema de correo electrónico para Arpanet y necesitaba un separador dentro de las direcciones. Tenía que ser un carácter que nadie usara en su nombre de usuario. Letras y números quedaban descartados. Tomlison bajó los ojos hacia el teclado y eligió ese como podía haber elegido otro.
En inglés @ se lee at, así, ray@gmail.com significa <ray en gmail.com>




Direcciones IP, la matrícula de los ordenadores


En internet cada ordenador se identifica por una dirección IP (Internet Protocol), del tipo 188.40.234.3. Esos cuatro números separados por puntos pueden tener valores desde el 0 hasta el 255. Con este sistema IPv4 los posibles direcciones solo 256: casi 4300 millones, ni siquiera una por persona. Los creadores de Internet no imaginaron que todo el mundo querría conectarse.

El actual sistema se agotará, como ocurre con el de las matrículas de los coches. Hoy se trabaja en la versión 6 del protocolo IP, con 3,4 x 10 posibles direcciones del tipo 2001: 0db8:85a3:1319:8a2e:0370:7334. Eso da unas 5000 por cada mm de superficie terrestre. Parece más que suficiente, incluso para un futuro en el que cada ordenador, teléfono móvil, iPod y coche estén conectados a Internet y tengan su propia dirección. Sin embargo, la transición al IPv6 es un reto tecnológico aún por resolver.
Cada vez que te conectas a Internet, lo habitual es que tu proveedor te asigne una dirección IP distinta, que además puede cambiar en pocas horas. Esta dirección de IP es una IP dinámica. Para tener una IP fija hay que pagar algo más.


Una dirección IP es un número que identifica de manera lógica y jerárquica a una interfaz de un dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo IP (Internet Protocol), que corresponde al nivel de red o nivel 3 del modelo de referencia OSI.
Es habitual que un usuario que se conecta desde su hogar a Internet utilice una dirección IP. Esta dirección puede cambiar al reconectar; y a esta forma de asignación de dirección IP se denomina una dirección IP dinámica (normalmente se abrevia como IP dinámica). 
  
DNS, navegamos como un intérprete

Los ordenadores se comunican en Internet mediante su direcciones IP, pero las personas necesitamos unas direcciones más fáciles de recordar que esas secuencias de números.
Los servidores de nombres de dominio (DNS) hacen de intérpretes entre usuarios y ordenadores.
Cuando escribimos una dirección, por ejemplo la del Ministerio de Educación y Ciencia, www.mec.es, el DNS la traduce a la dirección IP del servidor donde está alojada la página web que queremos visitar.

DNS es una abreviatura para Sistema de Nombres de Dominio (Domain Name System), un sistema para asignar nombres a equipos y servicios de red que se organizan en una jerarquía de dominios. La asignación de nombres DNS se utiliza en las redes TCP/IP, como Internet, para localizar equipos y servicios con nombres sencillos. Cuando un usuario escribe un nombre DNS en una aplicación, los servicios DNS podrán traducir el nombre a otra información asociada con el mismo, como una dirección IP.
No cabe duda que un nombre sencillo resulta más fácil de aprender y recordar, pero los equipos se comunican a través de una red mediante direcciones numéricas; para facilitar el uso de los recursos de red, los servicios de nombres como DNS proporcionan una forma de asignar estos nombres sencillos de los equipos o servicios, a sus direcciones numéricas.   
¿Cuántas IP te sabes de memoria?
Ninguna.
 

¿Cuántos número de teléfonos? 
Número de teléfonos unos 5 ó 6 aproximadamente.



CONEXIONES Y VELOCIDAD DE ACCESO A INTERNET

Los cables de fibra óptica han adelantado a los de cobre en las autopistas de la información.
Formados por cientos de finísimas hebras de vidrio o plástico, estos claves permiten enviar muchos datos a gran velocidad. La información viaja a través de ellos en haces de luz que rebotan en las paredes de la fibra: gracias a la reflexión total interna de este material, la luz recorre grandes distancias sin interferencias electromagnéticas.
Pero las fibras son muy frágiles y es bastante difícil empalmar los cables.
Por este motivo, aunque es esqueleto de Internet sea de fibra óptica, a los hogares la conexión llega por otras vías.

Tipos de conexiones 



Línea telefónica. Está pensada para transmitir información analógica (voz), por eso es necesario utilizar un módem (modulador-demodulador), que convierte la información digital en pitidos de dos tonos (ceros y unos).
Su velocidad máxima de descarga es de 56600 bps (bits por segundo).


 



Cable. Los proveedores de cable tienden redes de fibra óptica bajo las calles, pero a las casas la conexión llega por un cable coaxial de cobre, similar al de la antena de televisión, que se conecta al módem de cable.
Está tecnología solo llega a núcleos de población importantes.
Es la conexión más rápida: hasta 30 Mbps (megabits por segundo).



 


ADSL. Mediante la utilización de las líneas telefónicas de cobre es posible un acceso de banda ancha que además permite hablar por teléfono al mismo tiempo.
Se necesita un módem especial y adaptar la centralita telefónica.
La velocidad máxima oscila 8 Mbps y 24 Mbps.



 




Satélite. Existen diferentes sistemas. Unos reciben la información por antena parabólica y la envían a través de una línea telefónica, pero lo ideal es un servicio bidireccional que envía y recibe directamente al satélite.
En España es la conexión más cara y su velocidad máxima es de 2Mbps.


 



Telefonía móvil. La tecnología de tercera generación (3G) ofrece conexión de banda ancha para los teléfonos móviles y también para los ordenadores, ya sea mediante un módem 3G o a través de un teléfono.
De momento la cobertura no llega a todo el país.
Velocidad máxima: 7,2 Mbps. 








Wifi, compartir la conexión
 
Con independencia del tipo de conexión que se haya solicitado al proveedor de Internet, dentro de casa el módem o router que contiene tecnología Wifi crea una red que permite conectar varios ordenadores sin cables desde cualquier habitación.
Pero lo que los internautas demandan cada vez más es tener acceso inalámbrico en cualquier punto de la ciudad.
Existen ya muchos puntos de acceso Wifi (hotspots) en lugares públicos como bibliotecas, cafeterías, aeropuertos, hoteles, etc.., que pueden ser abiertos y gratuitos, de pago o restringidos a clientes.
Otra alternativa es unirse a una comunidad Wifi y compartir la conexión con otras personas. Así tendrás acceso gratuito cerca de la casa de cualquier miembro de tu comunidad.
Su comodidad ha hecho que las redes inalámbricas hayan proliferado tanto que ya se habla de contaminación Wifi.
Demasiados puntos de acceso en su vecindario crean interferencias y saturan una banda de frecuencias (2,4 GHz) a la que también operan los hornos microondas y los móviles con Bluetooth.

Uno de los principales defectos atribuidos a la conectividad WiFi es su poca seguridad. Existen, sin embargo, diversos protocolos de cifrado que permiten codificar la transmisión de los datos y garantizar su confidencialidad.


Hotspots 
Puntos de acceso Wifi en lugares públicos como bibliotecas, cafeterías , aeropuertos, hoteles ...

Navegador Web : momentos estelares de la historia.





El 13 de octubre de 1994, se lanzó la primera versión de Netscape, primer navegador web al alcance del gran público.El programador británico Tim Berners-Lee ideó un sistema sencillo para que todos los científicos de todo el mundo pudieran compartir los resultados de sus investigaciones World Wide Web(www). Su idea fue usar enlaces de hipertextos para saltar de una página a otra, en ellas solo se podía ver texto, las imágenes, habían que cargarlas apartes.

 

WWW son las iniciales que identifican a la expresión inglesa World Wide Web, el sistema dedocumentos de hipertexto que se encuentran enlazados entre sí y a los que se accede por medio deInternet. A través de un software conocido como navegador, los usuarios pueden visualizar diversos sitios web (los cuales contienen texto, imágenes, videos y otros contenidos multimedia) y navegar a través de ellos mediante los hipervínculos.
Hipertexto : Es el texto que contiene elementos ( enlaces ) que permiten acceder a otra información.

 



Mosaic: Surgió en 1993,primer navegador web con interfaz gráfica (con una barra para poder teclear las direcciones y los botones para avanzar retroceder y recargar páginas) disponible para Windows, Mac, y Unix.

 


Entre los pioneros de la web, algunos temían que las páginas multimedia que se veían con Mosaic atrajeran a multitud de usuarios que estos colgaran fotos de todo tipo, usaran molestos sonidos de fondo y distribuyeran videos de tan poco interés científico como los primeros pasos de sus hijos.
Aquellos visionarios acertaron de nuevo. Cuanta más gente probaba el navegador, más contenidos se creaban, y eso atraía a nuevos usuarios a la web (uno de los muchos servicios de Internet), que también usaban Mosaic. El número de sitios web comenzó a experimentar un crecimiento exponencial, se duplicaba cada tres meses.
Visto el éxito en el mundo científico, al acabar sus estudios, Marc Andreessen fue reclutado por un empresario de Silicon Valley donde fundaron Netscape, con el que la revolución llegó a los hogares a finales de 1994.
Aquel navegador era más fácil de usar y tenía mejoras importantes sobre Mosaic.
 


Navegador web  desarrollado originalmente por la compañía Netscape Communications. Netscape fue el primer navegador comercial popular en 1995 y principal rival de Internet Explorer de Microsoft.

Al perder la batalla contra Internet Explorer, decidieron liberar el código fuente de Netscape. Gran cantidad de colaboradores reescribieron el código y crearon Mozilla.

Firefox, la reencarnación de Netscape

Firefox: Navegador mas avanzado en cuestiones de privacidad y seguridad.Es símbolo de la cultura delsoftware libre es gratuito. El código de programación con el que está hecho Firefox está basado por Netscape, fue barrido por Internet Explorer. Los creadores de Firefox quisieron llamarlo Phoenix, como el pájaro mitológico que renace de sus cenizas. Pero la marca estaba registrada y el nombre definitivo es el de un animal en peligro de extinción.


 


Yahoo, los favoritos de todo el mundo
 
En 1994 dos estudiantes de la Universidad de Stanford (EEUU) publicaron una página con enlaces a sus sitios web favoritos: <<La guía de Jerry y David para la World Wide Web>>, que pronto cambiaron por un nombre con más gancho, Yahoo.
Fue el primer directorio de Internet y llegó a convertirse en la página de inicio de la mayoría de los internautas. Catalogaba las nuevas páginas en categorías y marcaba los mejores con un icono que representaba una gafas de sol.
Pero pronto esa tareas se convirtió en imposible. En 1997 se alcanzó el millón de sitios web: había empezado la era de los buscadores.
La manera inicial de navegar con directorios todavía es posible en http://es.dir.yahoo.com/


Un programa revolucionario
 
En la jerga informática se les conoce como Killer apps (aplicaciones asesinas). En español, aplicaciones bomba: es el software que hace explotar una tecnología, de manera que desarrolla sus posibilidades y multiplica las ventas del hardware que lo soporta.
Si Netscape fue la aplicación bomba de Internet, otros programas convirtieron en grandes éxitos al PC, el Macintosh, y la Gameboy:
 
  • PC (1983). Las ventas del primer PC de IBM  fueron muy flojas hasta que salió al mercado una hoja de cálculo llamada Lotus 1-2-3, que lo convirtió en un best-seller en el mundo empresarial. 
  • Macintosh (1985). Aldus PageMaker fue el primer programa de maquetación que mostraba las páginas tal cual en la pantalla (WYSIWYG, what you see is what you get). Este programa hizo que el Macintosh de Apple conquistara a los diseñadores gráficos.
  • Gameboy (1989). El juego de Tetris se hizo muy popular desde su lanzamiento en 1985, pero hizo un dúo imbatible son la Gameboy. Este juego venía incluido en la consola portátil de Nintendo, que sedujo tanto a los niños como a los adultos deseosos de jugar al Tetris en cualquier lugar.


GOOGLE : EL ALGORITMO QUE LO BUSCA TODO .


Tiene un eslogan interno y resume en tres palabras el código ético adoptado por los fundadores del principal buscador de Internet para evitar que se les fuera de las manos.

Google fue un proyecto de investigación de dos estudiantes en 1996.Google es una compañía estadounidense fundada en septiembre de 1998 cuyo producto principal es un motor de búsquedacreado por Larry Page y Sergey Brin. El término suele utilizarse como sinónimo de este buscador, el más usado en el mundo.
Google
La característica más destacada de Google como buscador es su facilidad de uso.
Larry y Sergey estudiantes de la Universidad de Stanford plantearon su hipótesis: una página es más importante cuanto más enlaces apunten hacia ella.
En la práctica, había que ir más allá, pues un enlace desde el New York Times es más valioso que desde una página personal cualquiera. Así que los primeros resultados de una búsqueda debían ser las páginas más enlazadas desde otras páginas relevantes. Los detalles de cómo Google determina eso están en un complejoalgoritmoque se puede definir como una secuencia de instrucciones que representan un modelo de solución para determinado tipo de problemas. O bien como un conjunto de instrucciones que realizadas en orden conducen a obtener la solución de un problema. Por lo tanto podemos decir que es un conjunto ordenado y finito de pasos que nos permite solucionar un problema.
Los algoritmos son independientes de los lenguajes de programación. En cada problema el algoritmo puede escribirse y luego ejecutarse en un lenguaje de diferente programación. El algoritmo es la infraestructura de cualquier solución, escrita luego en cualquier lenguaje de programación.

PageRank : 
PageRank (PR) es un valor numérico que representa la popularidad que una página web tiene en Internet.
Cuando el algoritmo estuvo listo, Page y Brin trataron de vender su motor de búsqueda. No tenían demasiado interés en montar su propia empresa, pero los grandes portales de Internet tampoco tenían mucho interés en mejorar sus buscadores. Así que siguieron por su cuenta, con la ayuda de varios inversores que pusieron un millón de dólares, y de un amigo que les alquiló su garaje.
<<To Google>> aparece en los diccionarios de inglés como verbo que significa buscar en Internet, ya sea con ese o con otros, como Yahoo, MSN o Ask.com. El país más glooglero del mundo es España.




Silicon Valley es un estado de ánimo

Silicon Valley no aparece en Google Maps ni en ningún atlas. La meca de la innovación tecnológica no es un área geográfica ni un distrito administrativo.
En la actualidad se llama Silicon Valley a una zona del norte de California situada entre las ciudades de San Francisco y San José, aunque no hay un consenso sobre sus límites.
El término de Silicon Valley, acuñado en 1971 por un periodista, se debe a la alta concentración de empresas informáticas(que usan chips  de silicio) en el norte del valle de Santa Clara.
Pero con el crecimiento de esa industria en la zona, impulsada desde la Universidad de Stanford, la localización geográfica ya no define Silicon Valley con tanta precisión como la actualidad de sus habitantes, emprendedora y abierta hacia las nuevas tecnologías.
Varias de sus grandes empresas fueron fundadas por estudiantes en un garaje, que servía al mismo tiempo de laboratorio y oficina:
  • Hewlett-Packard: Palo Alto (1938)
  • Apple: Los Altos (1976)
  • Google: Menlo Park (1998)

Engañar a Google
 

El <<google bombing>> es una trampa para que una página aparezca en los primeros lugares al buscar una palabra determinada. Teniendo en cuenta cómo funciona Google, ¿cómo crees que se puede hacer?
Está técnica empezó a usarse en reivindicaciones sociales y políticas, como ocurrió, por ejemplo, en el caso de la crisis del vertido del petróleo Prestige en 2002: http://google.dirson.com/prestige.php
También se usa para desacreditar a personas o promocionar productos. En 2007 los ingenieros de Google incorporaron un pequeño algoritmo para minimizar el efecto de estas bombas.


LOS NAVEGANTES TEJEN LA RED
 

Blog. El boca a boca del ciberespacio 
Esta nueva posibilidad surgió a finales de los años noventa gracias al blog (abreviatura del weblog) o bitácora.
El blog es un tipo de página web en la que uno o varios autores escriben de forma periódica sobre temas de su interés y donde los lectores pueden dejar sus comentarios.
Así se generan conversaciones y debates de los que surgen comunidades de personas con interés afines, muchas de ellas con su propio blog.
Otra particularidad de los blogs son los enlaces. Los artículos, además de texto e imágenes, suelen contener enlaces a otras páginas que llaman la atención del autor. De esta manera da a conocer esas páginas que es posible que otros también las enlacen desde sus blogs.
Los blogs tienen el poder de difundir y hacer relevante una información, aparezca o no en los periódicos.







Wikipedia. La sabiduría de las multitudes
 
Todo el mundo es un experto en algo. Con esta idea nació en 2001 la Wikipedia, una enciclopedia que permite cualquier usuario pueda añadir y modificar sus contenidos desde su navegador web.
La Wikipedia tiene pocos trabajadores a tiempo completo, y en ella colaboran millones de voluntarios de todo el mundo que se auto organizan para controlar la calidad de sus contenidos.
En 2007 la Wikipedia se convirtió en la décima web más visitada. Es el lugar más habitual para empezara informarse sobre un tema, aunque nunca debería ser el único.



 

Web 2.0: el espectador es el protagonista
 
En 2006 la conocida revista Time te nombró a ti, internauta, persona del año.
Este hecho se debió a que 2006 fue el año en el que las nuevas webs, creadas o mejoradas gracias a la colaboración de los propios usuarios (las que forman la llamada Web 2.0), empezaron a superar en visitas a las webs tradicionales: Wikipedia superó a la Britannica, Blogger superó a la CNN, Google Maps superó a MapQuest.


El término Web 2.0 comprende aquellos sitios web que facilitan el compartir información, lainteroperabilidad, el diseño centrado en el usuario y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web estáticos donde los usuarios se limitan a la observación pasiva de los contenidos que se han creado para ellos.

ORDENADOR: PROBLEMAS COMPLEJOS, DECISIONES SIMPLES
 

Un ordenador hace mucho más que ordenar. Es una palabra prestada del francés ordinateur, que es la traducción del original inglés computer. Con ese nombre se designaba a los especialistas en hacer cálculos numéricos y en el siglo XIX comenzó a aplicarse a máquinas, que calculaban cada vez más rápido.
En el siglo XX, cuando los engranajes de las máquinas se sustituyeron por componentes electrónicos, se generalizó el uso de la palabra <<ordenador>>. Estos componentes tenían el inconveniente de que se construían para resolver un problema determinado y había que cambiarlos sí se querían usar para otro fin.
Hasta que en 1936 un estudiante inglés, Alan Turing,
 es considerado uno de los padres de la ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Pensó en una computadora que lograría resolver todo tipo de problemas que pudiera traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios en las que solo cabían dos decisiones: verdadero o falso. La idea era reducir todo (cifras, letras, imágenes, sonidos) a ristras de unos y ceros y usar una receta, un programa, para resolver los problemas en pasos muy simples.
Había nacido el ordenador digital, pero era una máquina imaginaria. Tras la Segunda Guerra Mundial, en la que ayudó a descifrar el código Enigma de los mensajes en clave de los nazis, Turing creó uno de los primeros ordenadores como los actuales, digital y también programable: podía usarse para muchas cosas con solo cambiar el programa.






Evolución permanente
 

La máquina de Turing prontó quedó obsoleta, como pasa ahora. Los ordenadores han seguido duplicando su potencia de cálculo cada año y medio, como predijo Gordon Moore en 1965.
Por muy rápido que sea ahora un PC, para usarlo todavía hay que esperar cerca de un minuto mientras arranca tras unas comprobaciones, empieza a copiar el sistema operativo (el programa imprescindible para funcionar) desde el disco dura hasta la memoria RAM. Cada vez que se enciende el ordenador hay que repetir el proceso, pues la memoria se borra al apagar y cada casilla de información o bit (que puede valer de 0 a 1) marca 0.
Turing solo llegó a ver los primeros cerebros electrónicos. Él creía que los ordenadores sí podrían llegar a pensar y, con el programa adecuado, hacer cosas como chatear sin que pudiéramos distinguir si nuestro interlocutor era una persona o un ordenador. Nadie ha conseguido crear todavía un programa que supere una prueba denominada test de turing
Máquina de Turing

 


Con 40 años Turing había abierto el campo de la Inteligencia Artificial, pero en la cumbre de su carrera científica fue condenado por mantener relaciones homosexuales. Para evitar la cárcel, aceptó someterse a un tratamiento hormonal. Dos años más tarde murió, tras dar el primer bocado a una manzanaenvenenada con cianuro. Mucho después, una marca de ordenadores adoptó como símbolo una manzana arco iris como homenaje.

 




EJERCICIO PÁGINA 236

Chatea con un ordenador

Un bot de charla (o chabot) es un programa que está diseñado para similar una conversación inteligente con humanos. Pero ninguno lo hace tan bien como para superar el test de turing.
  • Busca bots de charla en Internet, prueba diferentes modelos. A continuación describe sus tácticas para hacerse pasar por una persona y explica por qué nota que lo es.
Es impresionante la facilidad que tienen estos bots para poder hablar con los humanos, pero al poco descubres que no son reales, puesto que se equivocan hablando e inventan palabras. Al principio comenzaron como un juego pero hoy dia están muy extendidos. Han de utilizarse frases fácilmente comprensibles y que sean coherentes, aunque la mayoría de los bot conversacionales no consiguen comprender del todo. En su lugar, tienen en cuenta las palabras o frases del interlocutor, que les permitirán usar una serie de respuestas preparadas de antemano. De esta manera, el bot es capaz de seguir una conversación con más o menos lógica, pero sin saber realmente de qué está hablando.

Software, hardware y firmware: trabajo en cadena.
 

El Software de los ordenadores es el manual de instrucciones que permite convertir un problema, una tarea, en una gran cantidad de operaciones matemáticas sencillas, que se calculan a gran velocidad.
Los programas y juegos están en el primer eslabón de esa cadena: convierten nuestras acciones y deseos en tareas aún muy complejas que realiza el sistema operativo. Por ejemplo, si pulsas el botón <<Nuevo documento>> de su procesador de textos, el programa le pide al sistema que abra una ventana y este le pasa la orden a sus bibliotecas de funciones.
Algunos programas necesitan funciones que no tiene el sistema (por ejemplo, la capacidad para ver películas en formato DivX) y se las añaden instalando más bibliotecas o unos módulos llamados plug-ins.
Las funciones del sistema o las añadidas convierten cada tarea en una larguísima serie de instrucciones que son especificas para el hardware:
se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos, el microprocesador, la memoria RAM, el disco duro, la tarjeta gráfica, el grabador de DVD, etcétera.
El sistema operativo se relaciona con los dispositivos anteriores a través de otro software, los controladores.
Esta estructura encadenada hace que un programa hace que un programa pueda ejecutarse sin problemas en muchos ordenadores distintos, pero combatibles.
El software aparece como algo casi independiente del hardware. La cadena de instrucciones sigue dentro de los dispositivos (internos) y periféricos (accesorios) del ordenador. Cada uno de estos contiene un pequeño ordenador que controla sus motores y circuitos electrónicos mediante otro programa tan ligado a los componentes electrónicos que no se considera software, sinofirmware. (
firmwareque establece la lógica de más bajo nivel que controla los circuitos electrónicos de un dispositivo de cualquier tipo) .
Algunas prestaciones del periférico  se pueden mejorar si se cambia el firmware. Por ejemplo, al actualizar el firmware de un iPod podemos corregirle fallos de funcionamiento o enseñarle nuevas funciones, como leer los más recientes formatos de música o vídeo.


Una máquina para sustituir al doctor House
 
El televisivo doctor House es un ejemplo de cómo la intuición, la experiencia o bien una corazonada ayudan a los humanos a la hora de tomar decisiones complicadas.
Un ordenador no cuenta con este factor humano, pero en los hospitales ya comienzan a usarlos para decidir el mejor tratamiento para algunos pacientes, ya que gracias a programas de minería de datos, que analizan múltiples variables y sus relaciones, sus relaciones son muy acertadas.


ALMACENAMIENTO DIGITAL DE LA INFORMACIÓN
  Bits y bites, bocaditos de información
La forma más cómoda de llevar información es el llavero de memoria (pincho USB, lápiz de memoria open drive).
En su interior hay un chip, formado por multitud de celdas que funcionan como diminutos interruptores con dos posiciones: on y off, que equivalen a 0 y 1 en sistema binario. Así, cada casilla almacena bit (Binary digiT) de memoria.
 Un bit es la cantidad mínima de información, pero es muy raro verlos en solitario.
En nuestros ordenadores, los bits están agrupados en octetos llamados bytes (1 byte=8bits=un bocadito, en inglés).
¿Por qué ocho? El caso es que con los 8 bits de un byte pueden representarse 256 valores: del 00000000 al 11111111 en sistema binario, que es lo mismo que decir del 0 al 255 en números decimales.
Y con estos 256 caracteres diferentes, los occidentales tenemos más que suficiente para escribir cualquier cosa.
El código ASCII se usa para almacenar documentos de texto en la memoria y en los discos.
El código ASCII traduce en un solo carácter (letra, número, símbolo) cada uno de los 256 posibles valores binarios de un byte.


 Imagen digital, el puntillismo informática
 
Los ordenadores, teléfonos móviles, navegadores, GPS, iPod, etc., son artistas del puntillismo. En sus pantallas, una imagen es un cuadro de diminutos puntos llamados píxeles. 
Un píxel o pixel, en plural píxeleses,es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de vídeo o un gráfico.
El realismo de la imagen depende de la cantidad de información usada para colorear cada píxel.
Lo mínimo es 1 bit por píxel: dos colores, blanco y negro. Pero lo que tradicionalmente llamamos imagen en blanco y negro es en realidad una escala de grises.
Con 1 byte podemos representar 256 tonos diferentes para cada píxel y eso es suficiente para visualizar una fotografía, aunque se diga que entre el blanco y el negro hay una infinita gama de grises.
Si queremos ver la foto en color necesitamos 3 bytes por píxel.
 

























Comprensión, quedarse con lo imprescindible
 

Para visualizar y mandar fotos por Internet se suelen guardar en JPG, un formato que comprime el tamaño del archivo entre 10 y 20 veces con una pérdida de calidad aceptable, usando un complejo algoritmo.
También se pueden perder datos al comprimir música en MP3 o películas en DivX:

El DIVX es un nuevo sistema de video del tipo llamado pay-per-view (pago por vision), utiliza discos especiales del tipo de los compact disc y requiere un lector especial y una conexion telefonica. Este sistema se comercializara en principio en USA hacia el verano del año 1998. 
Debido al tipo de cifrado DES de la información en el disco, esta tecnología posiblemente no este permitida fuera de los USA (afortunadamente para nosotros en Europa) 

¿En qué consiste? El usuario compra los derechos para ver una película de video por un tiempo limitado, se compra una película grabada en un compact disc en un formato cifrado y con la compra tiene un periodo de tiempo de dos días para verla desde el momento en que la reproduce por primera vez en su lector divx sea el día siguiente de la compra o al cabo de unos meses, durante este periodo de tiempo, los discos se pueden reproducir las veces que se desee, parar la imagen, avanzar, etc, estos formatos descartan información redundante.
En cambio, para documentos de texto se usan formatos de comprensión sin pérdida de datos, como el ZIP, pues no interesa que al descomprimir falten letras o palabras. Zip es un concepto que se utiliza en lainformática para nombrar a ciertos formatos de almacenamiento, ya sean físicos o virtuales. A nivel desoftware, el zip se utiliza para la comprensión de datos (documentos de texto, imágenes, programas, etc.) sin pérdida de calidad.

COMPARTIR LA PROPIEDAD INTELECTUAL

MP3. Comprimido de música digital
En los años ochenta y noventa, en plena era del Walkman y el Discman (los primeros reproductores de música portátil) llevar miles de canciones en el bolsillo parecía un sueño imposible. Hoy se puede hacer gracias al MP3.
La industria musical ha cambiado por completo, pero no ha sido por decisión propia, como cuando se lanzó la cinta de caseta o el CD, sino por la revolución iniciada en Internet por los amantes de la música. Las tecnologías que han hecho posible el cambio son la digitalización y la compresión.

Digitalización
 

Digitalizar sonido o vídeo tiene una gran ventaja: cada copia es un clon idéntico al original, mientras que con cada copia sucesiva de una cinta analógica se pierde calidad.
Para guardar un texto en un ordenador basta con traducir letras a bytes el código ASCII.
No es tan fácil convertir el sonido (analógico) en una ristra digital de unos y ceros que un ordenador pueda almacenar y procesar. La señal analógica es una onda continua, que vemos como una curva. Al convertirla a digital lo que hacemos es tratar de reproducir esa curva con barras verticales que representan muestras de audio tomadas cada cierto tiempo.



Comprensión
 
Pero esos archivos son muy grandes . Así, en un CD de 700 megabytes caben 80 minutos de música. Descargar una sola canción con un módem de 56 Kbps llevaba horas. Había que reducir el tamaño del archivo sin perder calidad.
La solución fue el MP3, un formato comprimido de música digital que descarta los sonidos que el oído humano medio no puede recibir y los que no se oyen cuando suenan al mismo tiempo que otros.
El algoritmo de comprensión MP3 consigue que se reduzca 11 veces al tamaño del archivo y mantiene casi la misma calidad de sonido de un CD.
Además, cada archivo MP3 contiene unos bytes extra en los que se almacena información como el título de la canción, autor, año de grabación, etcétera.



P2P.Redes de intercambio de archivos
 

Con el invento del formato MP3 los internautas empezaron a compartir canciones. ¿Cómo poder encontrarías y descargarlas a buena velocidad?
En 1998 un estudiante universitario de 18 años creó Napster, un programa de intercambio de archivos basado en la tecnología P2P (peer-to-peer), cuyo significado es <<comunicación entre iguales>>.
En Internet los ordenadores se comunican por lo general a través de servidores centrales: para compartir un archivo, un usuario tendría que subirlo a un servidor y otro descargarlo de allí. Con el P2P pueden enviarse los archivos directamente.
Esto abrió la vía de compartir a escala global, incluso material protegido con copyright. También abrió una batalla legal y las discográficas consiguieron que los jueces cerraran Napster, 
fue un programa  que daba servicio de intercambio de archivos en P2P, permitiendo descargar música, imágenes, documentos, videos y otros archivos.Su popularidad y la controversia generada alrededor de éste, lo convirtieron en un verdadero hito de la historia de internet y la computación.
 
 

Pero surgieron nuevas redes P2P como eDonkey, BitTorrent o Ares, que cada vez hacen más fácil compartir música, software y vídeos.  

- eDonkey : Red de ficheros compartidos que permite a los usuarios acceder a los recursos locales intercambiando programas música y películas.

BitTorrent : BitTorrent es un protocolo y programa creados para el intercambio de archivos entre iguales (peer to peer o P2P), creados por Bram Cohen, programador estadounidense. Específicamente el protocolo fue diseñado en abril de 2001, e implementado y lanzado el 2 de julio de ese año. 
BitTorrent permite distribuir grandes cantid
s sin que eldistribuidor original tenga que gastar grandes recursos de ancho de banda, hosting o hardades de datoware. Cuando los datos son distribuidos usando el protocolo BitTorrent, los receptores pueden enviar inmediatamente los datos a nuevos receptores, reduciendo así el costo y carga de una única fuente individual.

Ares : Ares es un programa para compartir archivos que trabaja en una red descentralizada (P2P, Point to Point o Punto a Punto), permitiendo la descarga directa de archivos entre los usuarios del programa que forman parte de esa red. El programa Ares permite buscar y descargar cualquier archivo que otras personas pongan a disposición. Se comparten todo tipo de archivos: musica mp3, videos, programas, documentos, etc.