Powered By Blogger

INFORMATICA

INFORMATICA
1 D

lunes, 17 de diciembre de 2007

UNIDAD IV.- Introduccion a Internet

Internet es una red de ordenadores conectados en toda la extensión del Globo Terráqueo que ofrece diversos servicios a sus usuarios como pueden ser el correo electrónico, el chat o la web. Todos los servicios que ofrece Internet son llevados a cabo por miles de ordenadores que están permanentemente encendidos y conectados a Internet, esperando que los usuarios les soliciten los servicios y sirviéndolos una vez son solicitados. Como decimos, hay servidores para todo, los hay que ofrecen correo electrónico, otros hacen posible nuestras conversaciones por chat, otros la transferencia de ficheros o la visita a las páginas web y así hasta completar la lista de servicios de Internet.

Antecedentes E Historia Internet

Historia del Internet
El Internet nació hace más o menos 20 años, Internet fue creada a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en el año de 1969 y cuyo propósito principal era la investigación, desarrollo e implementación de protocolos de comunicación para redes de área amplia (WAN).
Estas investigaciones arrojaron como resultado el protocolo de comunicaciones TCP/IP (Trasmission Control Protocol/Internet Protocol) un sistema de comunicaciones muy sólido y robusto en el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet.
En el modelo DARPANET, la comunicación ocurre siempre entre un computador origen y otro destino. Se asume que la red como tal es una red inestable, de tal forma que cualquier porción de la red podría desaparecer en el momento más inesperado debido a causas externas.
Durante el desarrollo de este protocolo se incrementó notablemente el número de redes locales de agencias gubernamentales y de universidades que participaban en el proyecto, dando origen a la red de redes más grande del mundo, las actividades militares se separaron y se permitió el acceso a la red a todo aquel que lo requiera sin importar de que país provenía la solicitud siempre y cuando fuera para fines académicos o de investigación y que pagara sus propios gastos de conexión, los usuarios pronto descubrieron que la información que se encontraba en la red era muy útil y si cada institución que se conectaba aportaba algo crecería más el acervo de información existente.
Para enviar un mensaje por la red, un computador solo necesita encapsular sus datos en un paquete llamado “Internet Protocol (IP) packet”, y direcciónarlo correctamente. Las computadoras interconectadas son las que tendrían la responsabilidad de asegurar la comunicación que se hubiera establecido. “Every computer on the network could talk as a peer, with any other computer”.
Estas concepciones pueden resultar raras, pero la historia ha demostrado que muchas de estas estuvieron correctas. Aunque la ISO (Organization for International Standardization) estuvo dedicada varios años al diseño de un stantard para redes de computadores, la gente no pudo esperar. Los responsables del desarrollo del Internet, respondiendo a las presiones del mercado, empezaron a colocar sus softwares (IP Software) en cada tipo de computador existente (esa fue la única forma práctica de comunicar computadores de diferentes fabricantes). “Cada uno compraría el computador que quisiera, y esperaría a que sus computadores trabajaran juntas a través de esta red.”

Casi 10 años después, las redes LAN y las estaciones de trabajo (workstations) hicieron su aparición. Muchas de estas estaciones de trabajo tenian instalado el “SO Berkeley Unix, que incorporaban por defecto los módulos para interconexión IP. Esto creo una nueva demanda; más que interconectar un simple grupo de computadores , las organizaciones querían interconectar al DARPANET todas sus redes LAN. Esto permitiría a todas las computadores de las redes LAN acceder a las facilidades de la red DARPANET. Al mismo tiempo, muchas otras organizacio Una de las más importantes de estas redes nuevas fue la NSF, administrada por la National Science Foundation (NSF), una agencia del estado norteamericano. A finales de los 80 la NSF creó cinco centros equipados con supercomputadores (supercomputer centers). Hasta ese momento, las computadoras más rapidas en el mundo estaban disponibles solo par estos recursos estuvieran al alcance de cualquier investigador académico. Solo cinco centros de computo fueron creados debido a sus altos costos de mantenimiento, sin embargo el mantenerlos interconectados creaba un problema de comunicación. “Se necesitaba una forma de interconectar estos centros y permitir el acceso de otras computadoras”. En un primer momento se trató de utilizar la infraestructura de comunicaciones del DARPANET, pero esta estrategia fracaso por lo problemas burocráticos propios de entidades gubernamentales.

Es así como la NSF decide construir su propia red, basada en la tecnología IP del DARPANET. Esta red interconectó los cinco centros de la NSF con líneas telefónicas de 56Kbps. Se decide crear adicionalmente redes regionales, donde las instituciones interconectadas se unirían a algunos de los cinco centros de computo de la NSF en un solo punto. Con esta configuración, cualquier computador podría eventualmente comunicarse con cualquier otro redireccionando la conversación a través de los computadores vecinos interconectados.
Las supercomputadoras distribuidas en estos cinco centros de la NSF permitieron a los sitios interconectados, compartir una gran cantidad de información no relacionada al centro precisamente. El tráfico de la red se incrementó, sobrecargando los computadores que los interconectaban. En 1987, un contrato para administrar y renovar la red fue realizado con la empresa Merit Network Inc., que implementó la red educacional de Michigan conjuntamente con IBM y MCI. La antigua red fue reemplazada con lineas telefónicas más veloces (20 veces más veloces que las anteriores), y con computadoras mas rápidas para controlarla.

Este crecimiento y renovación de la NSFNET continua hasta nuestro dias. En la actualidad, el Internet no solo esta conformada por redes interconectadas usando el protocolo IP, sino recientemente redes basadas en protocolos diferentes al IP han desarrollado modulos que las integran con las redes IP tradicionales.
Por muy extraño que pueda parecer, no existe ninguna autoridad central que controle el funcionamiento de la red, aunque existen grupos y organizaciones que se dedican a organizar de alguna manera en tráfico y crecimiento de Internet.

Para 1969 ya habían ocurrido algunas cosas trascendentales. Un genio alucinado había propuesto formalmente la creación de una ‘red intergaláctica’ y luego consiguió que los militares paranoicos de la guerra fría financiaran la exploración del misterioso y naciente mundo de las tecnologías de la información. Los protagonistas eran civiles, pioneros de la informática, que habían intercambiado teorías durante años y estaban deseosos de llevarlas a la práctica. Ahora toda esa época pasa por el cedazo de quienes hurgan la historia.

Existen tres grupos que tienen un papel muy importante en la organización de Internet, el Internet Archiecture Boar (IAB) que son los que controlan los estándares de comunicaciones entre las diferentes plataformas para que puedan funcionar las máquinas y sistemas operativos de diferentes fabricantes sin ningún problema, este grupo es responsable de como se asignan las direcciones y otros recursos de la red. El NIC (Network Information Center) es el grupo encargado de asignar las direcciones y dominios a los solicitantes que desean conectarse a Internet. Uno de los grupos más importante es el Internet Task Force (IETF) en el cuál los usuarios de Internet pueden expresar sus opiniones sobre cómo se deben implementar soluciones a los problemas operacionales que van surgiendo y como debe cooperar los usuarios para lograrlo.

Fundadores de Internet, escritores de ciencia ficción e informáticos discuten sobre el tema. Por ejemplo, en el grupo de noticias de ‘Community Memory’, donde un debate sobre el momento preciso en que nació la Red de redes puede desatar largas conversaciones: hay quienes creen que fue el 2 de septiembre de 1969 cuando fueron presentadas las computadoras capaces de establecer una conexión, otros son definitivos al considerar el día de la primera conexión el 20 de octubre de 1969. Y hay quienes incluso prefieren fechas más recientes. El enorme crecimiento de Internet comenzó en 1994 cuando compañías con propósitos comerciales comenzaron a conectarse a la red, iniciando una nueva etapa de crecimiento.
Esta exploración histórica se repite a lo largo y ancho de la Red, y es necesario entender que no es un ejercicio inútil, un pasatiempo de fanáticos o un tema reservado a los especialistas. Después de todo, las dos primeras computadoras que trataron de decirse ‘LOGWIN’ estaban convertidas a comienzos del 2000 en un sistema que conecta 170 países y más de 300 millones de personas.

Conceptos Basicos De Internet

1. Conceptos básicos en Internet
URL:
Se entiende por URL cualquier dirección en internet, ya sea accesible por HTML (
http://etc/.), FTP(ftp://etc/.), E-mail (usuario@maquina.dominio) o cualquier otro protocolo
Dominio: Proviene de la palabra inglesa “domain” y hace referencia al entorno en el que está situado una determinada máquina (ordenador). Puede constar de un nombre (generalmente el nombre de la empresa u organización) y suele ir terminado por un indicador del país(.es, .uk, etc.) o del tipo de organización de que se trata.
Así pues, podemos encontrarnos:

.ES - España
.COM - Empresas (proviene del inglés Company)
.ORG - Organizaciones
.GOV - Institución gubernamental

Incluso hay países, como es el caso de Inglaterra, que incluyen ambas terminaciones (por ejemplo, yahoo.com.uk).
Subdominio:
Por extensión del concepto de dominio, se entiende un subdominio como el nombre de la máquina dentro de un dominio al que estamos accediendo. La máquina puede ser real (existe físicamente) o virtual (realmente no existe la máquina pero se trata un conjunto de directorios como si existiera dicha máquina y pertenecieran a ella). Como ejemplo analizaremos nuestra URL:

http://www.esi2.us.es/cofrade
http:// - Hace indicación a nuestro navegador del protocolo con que debe acceder. En este caso es Hyper Text? Transfer Protocol (protocolo de transferencia de hipertexto).
http://www.esi2/ - Subdominio: http://www.esi2/ dentro de la Universidad de Sevilla.
us.es - Dominio: Universidad de Sevilla.España. /cofrade - Directorio dentro del cual están alojados los ficheros de la WEB.
Pero se habrán ustedes fijado que muchas veces en la barra de dirección de su navegador aparece
http://hercules.us.es/cofrade. Pues eso es simplemente que el nombre verdadero de la máquina es Hercules, pero tiene asociado un subdominio llamado http://www.esi2/.
Dirección IP:

Del mismo modo que en la red telefónica tenemos un número de teléfono, en las redes informáticas (e internet es una de ellas) necesitamos tener nuestro “número de teléfono” para poder enviar y recibir las páginas, correos, etc. Dado que internet funciona gobernada por el protocolo TCP sobre IP, ese número de teléfono es nuestra dirección IP, y nos la asigna nuestro ISP (Proveedor de Acceso a Internet) cada vez que nos conectamos a él. Suelen ser variables (dinámicas), pero se puede contratar una IP fija previo pago del importe correspondiente.
Mediante los Servidores de Dominio de Nombre (DNS) asociamos una dirección IP a un nombre lógico (dominio en letras) que será mucho más sencillo de recordar. Por ejemplo, una dirección IP del tipo: 195.178.45.56 la podemos asociar con
http://www.midominio.es/ que será mucho más sencillo de recordar para los que quieran visitar nuestra página. El servicio de DNS conlleva unos gastos fijos anuales, que dependerán del tipo de dominio registrado y del pais.
Enlace:
Un enlace es cualquier referencia dentro de nuestro documento que nos permite navegar hasta otra dirección. Pueden ser locales (dentro de un mismo portal o WEB) , o externos (un enlace desde estas páginas a la de alguna Hermandad, por ejemplo). La influencia angloparlante nos lleva en muchas páginas a incluir una sección de enlaces llamada LINKS (que es enlaces en inglés).
Alojamiento:
Supongamos que ya hemos elegido el dominio que queremos que tenga nuestra WEB. Ahora debemos situar dichos ficheros en un ordenador que esté 24 horas conectado a internet. Eso es el alojamiento. Podemos optar por varias posibilidades:
lojamiento propio: debemos conectar un ordenador a internet 24 horas, con una IP fija y hacer constar esa IP en la tabla de DNS. Esta solución es muy cara y sólo la suelen utilizar grandes empresas.
· Alojamiento contratado: una empresa nos permite alojar nuestros ficheros en su servidor (previo pago). Según la modalidad elegida, podemos llevar nosotros los ficheros a una cuenta en el servidor (hosting: se suelen transferir mediante FTP o Protocolo de Transferencia de Ficheros) o bien la empresa permite ubicar nuestros equipos o que usemos directamente equipos de la empresa dentro de sus instalaciones y con diferentes niveles de servicio. (housing). Esta última opción es, obviamente, más cara que el hosting. Casi todos los ISP nos permiten una cuenta que suele rondar los 5 Mbytes de capacidad para alojar nuestros ficheros.
·Alojamiento gratuito: como su propio nombre indica, los ficheros los alojamos en servidores que son gratuitos, y que suelen incluir carteles (banners) publicitarios o ventanas que se abren automáticamente (Pop-Ups) con publicidad. Es importante leer las condiciones cuando alojemos nuestras páginas en servidores de este estilo para controlar en la medida de nuestras posibilidades dicha publicidad.
Administración:
Se llama administrador del sistema a la persona encargada del mantenimiento de un sustema informático. En el caso de páginas WEB, la influencia anglosajona vuelve a aparecer en el concepto de
Web Master?, que es la persona encargada de administrar un conjunto de páginas WEB. El webmaster no tiene necesariamente que ser el gestor de los contenidos de la página, si bien, suele serlo. Dos ejemplos muy claros serían las páginas de una gran empresa y la página personal de un alumno.
Operación De Internet

’La Informática se ha convertido en una herramienta indispensable en todas las actividades de la vida cotidiana de cualquier hombre o mujer contemporáneos. En la actualidad para los ejecutivos de las empresas, contar oportunamente con información, les permite tomar las decisiones mas adecuadas para el desarrollo y crecimiento de sus negocios. Internet es una auxiliar indispensable para la recopilación y procesamiento del gran cúmulo de datos que se requieren para no quedar fuera de la nueva era de la información. Las autoridades políticas, sociales y educativas de la mayoría de los países en desarrollo, se encuentran inmersas en programas de modernización tecnológica de donde la investigación, el desarrollo y la aplicación de la tecnología informática adquieren dimensiones de prioridad nacional. En estos países se afrontan problemas como el desempleo, cuando las necesidades de personal calificado tecnológicamente son cada vez mayores Un área que ha tenido un gran auge estos últimos años ha sido las redes. Las redes forman parte esencial en las oficinas, las empresas, los centros de educación y el hogar, ya que permiten del trabajo entre varias personas a distancias variables en tiempo real, así como la comunicación. El propósito general de este trabajo, es el estudio de uno de los protocolos que ha marcado un gran auge en la tecnología para las redes: el protocolo TCP/IP, así como explicar sus funciones y usos y mencionar una breve reseña histórica del mismo.’

Caracteristicas Principales De Internet
Libre.

El espíritu de dejar circular la información libremente es una de las razones que ha permitido el crecimiento espectacular de Internet. Si en sus comienzos los científicos que desarrollaron el soporte técnico de Internet, como el protocolo TCP/IP, no lo hubiesen puesto a disposición de la industria, hoy Internet no sería lo que es.
Hoy por hoy cualquiera puede colocar en Internet información sin censura previa, esto permite expresar libremente opiniones, y decidir libremente qué uso damos a Internet. Es algo importante que permite que las personas se sientan más libres y tengan más capacidad de reacción frente a los poderes establecidos. Pero también facilita el uso negativo de la red. Por ejemplo, la creación y dispersión de virus informáticos, de conductas antisociales, pornografía infantil, etc.
Anónima. Podemos decir que ocultar la identidad, tanto para leer como para escribir, es bastante sencillo en Internet. Esta característica está directamente relacionada con el punto anterior, ya el anonimato puede facilitar el uso libre de la red con todo lo que esto conlleva. Entendido de forma positiva en anonimato facilita la intimidad y la expresión de opiniones. Aunque también facilita la comisión de delitos.
Autoreguladora.
¿Quién decide cómo funciona Internet? Algo que tiene tanto poder como Internet y que maneja tanto dinero no tiene un dueño personal. No hay ninguna persona o país que mande en Internet. En este sentido podemos decir que Internet se autoregula o autogestiona. La mayoría de las reglas que permiten que Internet funcione han salido de la propia Internet.
Existen unos comités internos que se encargan de regular Internet, como W3C, Internet Society, ICANN. Por ejemplo, se encargan de dictar las normas de los nombres de dominios, definir y aprobar los protocolos de comunicaciones, etc.
El ICANN tiene la misión de organizar el sistema de nombres de dominios que reside en 13 servidores raíz, 10 de los cuales están en EE.UU., este sistema es básico para el funcionamiento de Internet y la comunidad internacional ha pedido que pase a ser gestionado por un organismo internacional y deje de depender de EE.UU.
Hasta ahora las razones que han llevado a tomar las diferentes decisiones han sido fundamentalmente técnicas. Eso puede explicar el porqué las cosas han funcionado razonablemente bien, puesto que el crecimiento y la mejora de Internet son innegables.
A partir de ahora, debido a los problemas de seguridad y para facilitar el comercio electrónico las autoridades de diversos paises han comenzado a regular Internet mediante leyes nacionales.
En España, en el año 2002 se aprobó la LSSI (Ley de Servicios de la Sociedad de la Información y Comercio Electrónico) que regula diversos aspectos del funcionamiento de Interntet como la obligación de inscribir los nombres de dominio (.es, .com, …) en el Registro Mercantil, obligación de publicar los datos de las personas o empresas que prestan servicios en Internet, normas sobre la publicidad, correo electrónico y contratación electrónica, etc.
Esta regulacion de Internet ha sido acogida de diferente forma por diversos colectivos. Los empresarios con negocios en la red creen que favorecerá el desarrollo del comercio en Internet y hará más seguro el uso de la red de redes. Algunos colectivos piensan que es un recorte de la libertad de la red y se han manifestado en contra de la LSSI.
Un poco caótica.
Después de lo dicho en el punto anterior parece un contrasentido decir que Internet es caótica. Es caótica en el sentido que no está ordenada ni tiene unas reglas estrictas de funcionamiento que permitan asegurar que todo funciona correctamente, fundamentalmente en el aspecto del contenido.
Podemos navegar por Internet y naufragar constantemente, encontrando enlaces que no llevan a ninguna parte, páginas que dan errores, formularios que fallan, vídeos que nunca se cargan, textos descuadrados y faltas de ortografía que claman al cielo. Y esto no sólo sucede en las páginas personales, también en portales que han costado mucho dinero.
Todo esto puede dar la impresión de ser un pequeño caos ya que nadie asegura que todo funciona bien. Aunque esto también sucede en otros aspectos de la vida, hay veces que sales del cine pensando que te han tomado el pelo, hay libros que son muy malos, productos que no hacen lo que dice la etiqueta, etc.
Aunque con el paso de los años se va produciendo un proceso de decantación natural, los bueno queda arriba y lo malo se hunde en el fondo.
Insegura.
La información de Internet viaja de un lugar a otro a través de la línea teléfonica y la mayoría sin encriptar. Por lo tanto es posible interceptar una comunicación y obtener la información. Esto quiere decir que se puede leer un correo o obtener el número de una tarjeta de crédito.
Es decir, si no hacemos nada la información viaja de forma insegura, pero hoy en día toda la información importante se encripta antes de enviarla por la red, y en el destino se desencripta. Además de otro tipo de medidas de seguridad. Por lo tanto las webs de sitios serios que trabajan con tarjetas de crédito, cuentas bancarias, etc ofrecen un nivel de seguridad bastante alto. Un sitio web que trabaja con un servidor seguro se reconoce porque aparece un pequeño candado en la barra inferior.
La inseguridad también se refiere a la existencia de virus informáticos que pueden afectar a nuestro ordenador personal, pudiendo llegar a borrar o inutilizar nuestros datos. Los virus suelen entrar a través de fallos de seguridad los navegadores, del correo y al descargarse archivos. De la misma forma que en el caso anterior, podemos tomar medidas para evitar esta inseguridad. Actualizar los navegadores, no descargarse archivos de sitios sospechosos, no abrir correos de desconocidos, y tener instalado un programa antivirus.
Por último, la inseguridad afecta también a los contenidos de los sitios web puesto que algunos sitios ven modificadas sus páginas por hackers. Estas intrusiones suelen tener componentes de protesta o revindicación y generalmente no tienen efectos demasiado graves. Un grupo elevado de personas pueden bloquear el correo de un sitio web si todas escriben correos a la vez. Muchos países están modificando las leyes para evitar comportamientos delictivos de esta clase.
En resumen, podemos decir que partiendo de una situación de cierta falta de seguridad estamos llegando a una situación en la que cada vez es más seguro usar Internet, si tomamos las precauciones adecuadas. La opinión pública es muy sensible a estos temas por lo que se ha creado el mito que Internet es muy insegura, cosa que tampoco es cierta. Por ejemplo, comprar a través de Internet puede ser igual o más seguro que hacerlo por otro medio. Realmente, el porcentaje de casos de fraude en la compra por Internet es muy bajo. Hoy en día se puede comprar con bastante garantía en la mayoría de los sitios web reconocidos y serios.
Crecimiento vertiginoso.
¿Cuántos años tardó la radio en llegar a la mayoria de la población?, ¿..y la televisión, ¿… y el teléfono? ¿Cuánto está tardando Internet? El número de personas que utiliza Internet crece a un fuerte ritmo, y también el número de empresas que hace negocios en Internet. Cada vez se mueve más dinero por la red. En 1996 había 242.000 usuarios de Internet en España, y en el 2004 más de 13.000.000. E ste crecimiento se estabilizará dentro de unos años, cuando Internet llegue a un alto porcentaje de la población.
Realmente Internet es un fenómeno que va a cambiar muchas cosas en la forma en que las personas se comunican y hacen negocios. Este cambio quizás no sea tan rápido como algunos dicen, pero puede que sea más profundo de lo que algunos piensan. En los años 60 se decía que los ordenadores iban a revolucionar la vida de la gente, la cosa no ha sido para tanto. Ahora, en el principio del nuevo milenio, los ordenadores, aliados con las telecomunicaciones, tienen una segunda oportunidad. Esperemos que sea para bien.
— mc —

Acceso a Internet

Internet es una red de computadoras u ordenadores interconectados, capaces de compartir información y que permite comunicar a distintos usuarios sin importar su ubicación geográfica. Para que estas computadoras puedan compartir cualquier información, es preciso que tengan un “lenguaje en común” y esto es posible gracias a la existencia de un protocolo de comunicación, además de la infraestructura y los equipos necesarios. También se le conoce como “superautopista de la información.

VENTAJAS:
1.- El costo de la comunicación entre computadoras en todo el mundo es al precio de una llamada local.
2.-La facilidad de intercambiar ideas con usuarios de todo el mundo.
3.-Nos permite obtener las ultimas noticias y la información meteorológica, deportiva y de ocio más actualizada.
4.-Transferir software, incluyendo juegos, todo tipo de imágenes (algunas prohibidas por dañar la moral) y programas. Participar en grupos de discusión, como boletines electrónicos y grupos de debate.
5.-Enviar y recibir mensajes mediante correo electrónico
7.-Rapidez en el desarrollo de aplicaciones.
8 –Proporciona una agenda de viajes a cualquier parte del mundo en la que cada día un creciente número de viajeros deciden su destino turístico y realizan sus reservas a través de la red.
9.-Facilidad de distribución y actualización de información corporativa.
10.-Fácil incorporación de nuevas tecnologías como multimedia. Jva o VRML.
11.-Provee las herramientas necesarias para probar arquitecturas internet para el comercio.
12.- En el mercado facilita el comercio de diferentes tipos de productos.
13.- Un anuncio en Internet será visto por un considerable número de potenciales consumidores de todas partes del mundo con uno o varios perfiles claramente definidos.
14.- Mantenerse actualizado con las últimas noticias internacionales, leyendo artículos completos con fotos, videos y mapas. Seguir los eventos del mundo financiero, las bolsas de valores alrededor del globo, las acciones de las empresas, sus perfiles y sus negociaciones.
15.-Para el estudiante y el investigador, Internet puede ser la más completa, variada y actualizada biblioteca que jamás haya existido, con extensiones multimedia y todo. De hecho, es una gran biblioteca de bibliotecas, con material disponible para todos los niveles e intereses, desde temas escolares hasta complejas teorías científicas y estudios de mercadeo o negocios
16.- Interconexión de múltiples plataformas esto quiere decir que no importa si se usa una PC o un Macintosh o un sistema Unix o un computador viejo ya descontinuado o trabaja en un supercomputador de millones de pesos. Los protocolos de acceso a la red han sido diseñados para permitir comunicación independientemente de los sistemas y equipos usados. Así, podemos accesar desde una PC con OS/2 los mismos sitios que nuestros colegas con Macintosh o PC’s con Windows o sistemas Unix. Y podemos intercambiar con ellos mensajes y archivos sin gran dificultad.

Navegadores Y Buscadores

¿QUÉ ES WWW?
Antes de hablar de lo que es propiamente un navegador, necesitamos hablar obligatoriamente a cerca de lo que es WWW. Este es el servicio más utilizado en la actualidad por los usuarios de Internet, junto al tan conocido e-mail, del que hablaremos más adelante.
WWW te permite conectar con un ordenador remoto y acceder a la información que éste te proporciona, ya sea texto, imágenes, sonido o programas.
WWW es un acrónimo de World Wide Web, a veces escrito como W3. Lo que pretende WWW es proporcionar al usuario un entorno sencillo, con el que acceder a servicios complejos como puede ser hacer consultas a un servidor de bases de datos.
Puede parecer exagerado pero el Web ha cambiado en la forma de moverse por Internet, ya que permite a golpe de ratón viajar de un punto a otro de la red.
El invento del Web llegó de las manos de Tim Berners-Lee de la empresa norteamericana CERN, el Laboratorio Europeo para la Física de las Partículas, quien lo definió como “un sistema capaz de saltar de un sitio a otro de una forma automática, presentando una diversidad de datos que de otra forma no estarían disponibles”.
Se predispuso que los recursos disponibles en distintas conexiones fuesen disponibles para cada investigador desde su ordenador, de una forma transparente y exenta de dificultades.
Este sistema te ofrece hipertextos, es decir, palabras subrayadas e imágenes recuadradas y diferenciadas del resto, y que al pulsar sobre ellas con el botón del ratón te conducirán a otros textos, imágenes, o incluso otros Web.

¿QUÉ ES EL PROTOCOLO HTTP?
No podemos hablar de WWW sin hacer mención del protocolo HTTP. Básicamente, un protocolo es la forma o el modo que se emplea para comunicarse determinados elementos entre si.
De un modo sencillo podemos decir que es el lenguaje en el que hablan entre si.
Para las páginas Web, este protocolo es el HTTP, que es acrónimo de
Hyper Text? Transfer Protocol y que es el lenguaje que emplean los servidores de Web.
Por esta razón se pone la etiqueta “
http://” en la barra de direcciones del navegador cuando introducimos una dirección web. Ya que en la actualidad, los navegadores son capaces de soportar otros servicios como el ftp o el gopher.
El uso de estas etiquetas antes de la dirección Web que vamos a usar, le permite al navegador identidficar el servicio que empleamos. Pero en el caso de las direcciones Web la etiqueta “
http://” no es necesaria, ya que se trata del servicio por defecto para los navegadores
Este protocolo de alto nivel está pensado para el futuro, dado que puede negociar la forma en que se representan los datos por la pantalla del ordenador, ya sea en forma de imágenes, sonido, animaciones o videos.

¿QUÉ ES UN NAVEGADOR?
Para poder acceder al World Wide Web es necesario emplear un programa cliente de este servicio. A estos clientes se les suele denominar “browsers” o “navegadores”, ya que al movernos de un servidor Web a otro es como si estuviesemos “navegando” por la red.
Los navegadores han sido fundamentales para la popularización de Internet, principalmente debido a su facilidad de manejo para usuarios no expertos en informática y que permiten capturar cualquier documento de Internet, independientemente de su localización y formato y presentarlo al usuario.
Gracias a esto no es necesario seguir los complicados pasos que requerían el conocimiento del sistema Unix para poder realizar, por ejemplo, la transferencia de un archivo por ftp.
Los navegadores ofrecen un interfaz gráfico que permite navegar por la red simplemente usando el ratón en un soporte multimedia, para poder realizar cualquier tipo de búsquedas y encontrar lo que deseamos.
Básicamente, los navegadores son visualizadores de documentos escritos en lenguaje HTML, los cuales pueden incluir texto, gráficos, sonidos, enlaces (links) a otros documentos o servidores Web.

¿QUÉ ES UN BUSCADOR?
Un buscador es una página de Internet en la que nosotros podemos entrar y buscar todo tipo de información. Pero no nos equivoquemos, realmente la información que nosotros encontramos al realizar busquedas en este tipo de páginas no reside en la pagina del buscador. (Salvo casos excepcionales, en los que el buscador pretenda encontrar palabras o artículos alojados en la misma página en la que nos encontramos. Como sucede en esta misma página web).
La función del buscador consiste en, según la informacón introducida para la consulta comparar con sus listas indexadas y comprobar cuantas páginas conoce en las que se trate dicho tema. Tras la consulta, mostrará al usuario todas aquellas coincidencias que haya encontrado, y así nosotros podremos acceder a todas ellas.

¿CÓMO HACEMOS UNA BUSQUEDA?
Para hacer una busqueda en cualquiera de los buscadores existentes en Internet, simplemente tendremos que acceder a la página en la que resida el buscador y escribir en el cuadro de texto que aparecerá en dicha página que es lo que queremos buscar.
Otra opción ofrecida en muchos buscadores es la de acceder a una lista de informaciones clasificada por temas, usando una estructura jerárquica en forma de directorios donde, con estructura de árbol, se irán agrupando todas las materias de un tema en común.
Ésta se trata más bien de una busqueda selectiva, en la que iremos encontrando la información clasificada de un modo mucho más preciso, según vayamos pulsando en los diferentes enlaces.
El peligro de este sistema radica en que si no tenemos muy claro lo que buscamos, podemos perdernos, encontrar algo que nos llame la atención y terminar en un sitio al que no nos habíamos propuesto llegar.

OTRA CLASE DE BUSCADORES
Además de estos buscadores cuyo cometido, básicamente, es buscar términos en páginas web, también existen otros buscadores que sirven para buscar direcciones de e-mail (no siempre encuentran) y para buscar en artículos pasados y presentes de las news, cosas bastante interesantes, ya que dichos mensajes tienen un tiempo de consulta relativamente corto, sobre todo si son grupos con mucho movimiento.
Independientemente de la forma de presentar la información, la eficacia de los buscadores no sólo dependerán de la cantidad de datos (del tamaño de sus base de datos) sino también del método que empleen para organizar la información y realizar la búsqueda. Existen multitud de buscadores, pero de entre ellos destacan los siguientes:
En internet existen algunas herramientas como los buscadores y los metabuscadores. Los buscadores es un Software (Google, Yahoo,la web del programador) el cual compara la palabra escrita en la casilla con la base de datos de la red y nos despliega la información que se encuentra relacionada con la palabra pero no siempre es la correcta, por eso nosotros debemos ser un poco especificos con la palabra que vamos a buscar.

Los buscadores se clasifican en:
Buscadores por Palabras:Se introduce una palabra clave en relación con la información a buscar. Buscadores por Categorias:Despliega la información por temas. Buscadores Especificos:Contienen la información sobre un tema en concreto.
Los Metabuscadores son:Buscadores multiples que muestra la información por buscadores. Es decir que si no encuentras tú información en buscador puedes usar un metabuscador (netpandora.com)
Ademas los buscadores te ofrecen otros servicios como por ejemplo:
a)Grupos de noticias b)Clasificación por categorias c)Salas de conferencia o discusión d)Imagenes con la información solicitada e)La busqueda de tú información en toda la web.
Un navegador web, hojeador o web browser es una aplicación software que permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente descritos en HTML, desde servidores web de todo el mundo a través de Internet. Esta red de documentos es denominada World Wide Web (WWW) o Telaraña Mundial. Los navegadores actuales permiten mostrar y/o ejecutar: gráficos, secuencias de vídeo, sonido, animaciones y programas diversos además del texto y los hipervínculos o enlaces.
La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que este conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación; que es de donde se origina el nombre de navegador. Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario. Otra denominación es explorador web inspirada en uno de los navegadores más populares el Internet Explorer.
Historia de los navegadores El primer navegador, desarrollado en el CERN a finales de 1990 y principios de 1991 por Tim Berners-Lee, era bastante sofisticado y gráfico, pero sólo funcionaba en estaciones NeXT.
El navegador Mosaic, que funcionaba inicialmente en entornos UNIX sobre X11, fue el primero que se extendió debido a que pronto el NCSA preparó versiones para Windows y Macintosh. Sin embargo, poco más tarde entró en el mercado Netscape Navigator que rápidamente superó en capacidades y velocidad a Mosaic. Este navegador tiene la ventaja de funcionar en casi todos los UNIX, así como en entornos Windows.
Internet Explorer fue la apuesta tardía de Microsoft por el mercado de los navegadores y hoy en día ha conseguido desbancar al Netscape Navigator entre los usuarios de Windows. En los últimos años se ha vivido una auténtica explosión del número de navegadores, que ofrecen cada vez mayor integración con el entorno de ventanas en el que se ejecutan. Netscape Communications Corporation liberó el código fuente de su navegador, naciendo así el proyecto Mozilla.
Finalmente Mozilla fue reescrito desde cero tras decidirse a desarrollar y usar como base un nuevo conjunto de widgets multiplataforma basado en XML llamado XUL y esto hizo que tardara bastante más en aparecer de lo previsto inicialmente, apareciendo una versión 1.0 de gran calidad y para muchísimas plataformas a la vez el 5 de junio del 2002.
A finales de 2004 aparece en el mercado Firefox, una rama de desarrollo de Mozilla que pretende hacerse con parte del mercado de Internet Explorer. Se trata de un navegador más ligero que su hermano mayor.
Funcionamiento de los navegadores
La comunicación entre el servidor web y el navegador se realiza mediante el protocolo HTTP, aunque la mayoría de los hojeadores soportan otros protocolos como FTP, Gopher, y HTTPS (una versión cifrada de HTTP basada en Secure Socket Layer o Capa de Conexión Segura (SSL)).
La función principal del navegador es descargar documentos HTML y mostrarlos en pantalla. En la actualidad, no sólamente descargan este tipo de documentos sino que renderizan con el documento sus imágenes, sonidos e incluso vídeos (streaming) en diferentes formatos y protocolos. Además, permiten almacenar la información en el disco o crear marcadores (bookmarks) de las páginas más visitadas.
Algunos de los navegadores web más populares se incluyen en lo que se denomina una Suite. Estas Suite disponen de varios programas integrados para leer noticias de Usenet y correo electrónico mediante los protocolos NNTP, IMAP y POP.
Los primeros navegadores web sólo soportaban una versión muy simple de HTML. El rápido desarrollo de los navegadores web propietarios condujo al desarrollo de dialectos no estándares de HTML y a problemas de interoperabilidad en la web. Los más modernos (como Amaya, Mozilla, Opera y versiones recientes de Internet Explorer) soportan los estándares HTML y XHTML (comenzando con HTML 4.01, los cuales deberían visualizarse de la misma manera en todos ellos).
Los estándares web son publicados por el World Wide Web Consortium.
Buscador . En informática un buscador es una herramienta que permite al usuario encontrar un documento que contenga una determinada palabra o frase.
Los motores de búsqueda son sistemas que buscan en Internet (algunos buscan sólo en la Web pero otros buscan además en News, Gopher, FTP, etc.) cuando les pedimos información sobre algún tema. Las búsquedas se hacen con palabras clave y/o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas.
Se pueden clasificar en dos:
Indices temáticos: Son sistemas de búsqueda por temas o categorías jerarquizados (aunque también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos de direcciones Web elaboradas “manualmente”, es decir, hay personas que se encargan de asignar cada página Web a una categoría o tema determinado. Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante “robots” de búsqueda por la red. Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitativo). Los buenos directorios combinan ambos sistemas.
Clases de buscadores 1. Los motores de búsqueda o arañas: La mayoría de los grandes buscadores internacionales que todos usamos y conocemos son de este tipo. Requieren muchos recursos para su funcionamiento. No están al alcance de cualquiera.
Recorren las páginas recopilando información sobre los contenidos de las páginas. Cuando buscamos una información en los motores, ellos consultan su base de datos, y nos la presentan clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas de la web. Si buscamos una palabra, por ejemplo “ordenadores”. En los resultados que nos ofrecerá el motor de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de su texto. Si consideran que una web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, solo almacenan una o mas páginas. Cada cierto tiempo, los motores revisan las webs, para actualizar los contenidos de su base de datos, por lo que no es infrecuente, que los resultados de la búsqueda no estén actualizados. Los spiders, tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -spiders-. Los que construyen la base de datos. Y los que utiliza el usuario, el programa que explora la base de datos. Si les pagamos nos dan un bonus que nos permitirá aparecer en las primeras páginas de resultados. Esta forma de publicidad, ahora mismo, es indicada de alguna forma. Los spiders se han visto obligados a este tipo de publicidad para poder seguir ofreciendo a los usuarios el servicio de forma gratuita. Ejemplos de Spiders: Google, Altavista, Hotbot, Lycos
2. Los Directorios: Una barata tecnología, que es ampliamente utilizada por la cantidad de programas scripts en el mercado. No se requieren muchos recursos de informática. En cambio, se requiere mas soporte humano y mantenimiento.
Los algoritmos son mucho mas sencillos, presentando la información sobre las webs registradas como una colección de directorios. No recorren las webs ni almacenan sus contenidos. Solo registran algunos de los datos de nuestra página. Como el título y la descripción de la web que se introduzcan a la hora de registrar las webs. Los resultados de la búsqueda, estarán determinados por la información que se haya suministrado al directorio cuando se registra la web. En cambio, a diferencia de los motores, son revisadas por operadores humanos, y clasificadas según categorías, de forma que es mas fácil encontrar webs de el tema de nuestro interés. Más que buscar información sobre contenidos de la página, los resultados serán presentados haciendo referencia a los contenidos y temática de la web. Su tecnología, es muy barata y sencilla. Imagínese que es una base de datos como la que usted utiliza, sobre la que se realizan búsquedas. Ejemplos de directorios: Antiguos directorios, Yahoo, Terra (Antíguo Olé). Ahora, ambos utilizan tecnología spider, y Yahoo, conserva su directorio. Buscar Portal, es un directorio, y la mayoría de motores hispanos son directorios.
3. Los sistemas mixtos Buscador - Directorio: Además de tener características de buscadores, presentan las webs registradas en catálogos sobre contenidos. Informática, cultura, sociedad. Que a su vez se dividen en subsecciones.
4. Metabuscadores: En realidad, no son buscadores. Lo que hacen, es realizar búsquedas en auténticos buscadores, analizan los resultados de la página, y presentan sus propios resultados.
Presentan la ventaja de seleccionar para el usuario los mejores sitios que presentan los buscadores consultados. A cambio los buscadores consultados por el metabuscador reciben publicidad, ya que el nombre de cada buscador aparece al lado de cada resultados de búsqueda.
5. Multibuscadores: Permite lanzar varias búsquedas en motores seleccionados respetando el formato original de los buscadores.
6. FFA Enlaces gratuitos para todos: FFA, página de enlaces gratuitos para todos. Cualquiera puede inscribir su página durante un tiempo limitado en estos pequeños directorios. Los enlaces, no son permanentes.
7. Buscadores de Portal: Bajo este título, englobamos los buscadores específicos de sitio. Aquellos que buscan información solo en su portal o sitio web. Podríamos considerarlos como un directorio.
Un sencillo spider
Algo asi esta al alcance de cualquiera (claro, que tenga conociemientos) es:
Atlantic BOT? Buscador! por categorías

El Futuro Del Internet

Expertos de empresas y universidades de medio mundo se reunen en Madrid para mostrar cómo será la próxima generación de la Red. La 3ª edición del Global I Pv 6? Summit, que se celebra en el hotel Auditorium de la capital, revisará los últimos avances en el desarrollo del Ipv6, la nueva versión del Protocolo de Internet que sostiene en pie todo ciberespacio.
Cada una de las máquinas conectadas a Internet tienen una dirección IP (Internet Protocol) que las identifica. Las direcciones se expresan en una secuencia numérica. El sitio elmundo.es, por ejemplo, esconde en realidad el número 193.110.128.200. Aunque los humanos recuerdan mejor los nombres, las máquinas prefieren los números. El problema es que las posibles combinaciones de dígitos se están acabando. A finales de los 70, los creadores del protocolo de Internet se apoyaron en un sistema de 32 bits capaz de generar más de 4.200 millones de direcciones. La cifra parecía entonces suficiente. Sin embargo, hoy la incorporación de nuevos internautas y máquinas conectadas están acabando con las existencias. ¿Se imagina que no pudieran circular nuevos coches por las calles porque no hubiera matrículas para todos? El Ipv6 es la solución.
Este nuevo protocolo permitirá una cifra de direcciones tan astronómica que es difícil escribirla. La firma Arsys ha hecho el cálculo: habrá tantas como estrellas en el universo. El Global I Pv 6 Summit será la ocasión escogida por los expertos para mostrar el resultado de sus pruebas con el nuevo protocolo.
A partir de 2005
Aunque la transición desde el
I Pv 4 al I Pv 6 se prevé larga, la Comisión Europea confía que I Pv 6 empiece a andar en 2005. Los problemas de convivencia entre las dos versiones y las posibilidades del Ipv6 serán las estrellas de la reunión.
En ella participan empresas claves del sector como Consulintel, Cisco, 6WIND o Hitachi. También estarán expertos de sistemas de Estados Unidos, Japón y Europa. Las más de 50 ponencias tratarán todos los aspectos que mejorarán con I Pv 6.
Entre ellas destacan las relacionadas con las redes inalámbricas y la llegada de los teléfonos UMTS. Aunque estar conectado y en movimiento es posible con I Pv 4, con el nuevo protocolo será “enchufar y listo”.
Además, la reunión pretende dar respuesta a las necesidades de los nuevos dispositivos con conexión a Internet que surgen cada día. Desde automóviles hasta electrodomésticos, no habrá modelo que se precie que no ofrezca acceso a Internet. A este ritmo, se calcula que las direcciones Ipv4 se agotarán antes de acabar la década.
Más calidad
Pero no se trata sólo de cantidad sino de calidad. Según se deduce, del contenido de algunas presentaciones, Internet será distinta con Ipv6. La versión anterior del sistema era insegura, más lenta y difícil de gestionar por los administradores de las redes. La nueva mejorará los tres aspectos.
También impulsará las conexiones directas entre ordenadores (peer to peer), la computacion en red o la inteligencia ambiental. En esta ocasión, elmundo.es es parte de la noticia.
Raúl Rivero, de Mundinteractivos, mostrará a los asistentes los pasos dados por este periódico en la adpción del nuevo protocolo. Así, elmundo.es es el primer diario que funciona con I Pv 6. El Global Ipv6 summit trae al presente la Internet del futuro. Escribe o Paste AQUI usar SAVE(abajo) al terminar.

No hay comentarios: