lunes, 15 de diciembre de 2014

torrents

archivos torrents

Un archivo torrent almacena metadatos usados por BitTorrent. Está definido en la especificación de BitTorrent. Simplemente, un torrent es información acerca de un archivo de destino, aunque no contiene información acerca del contenido del archivo. La única información que contiene el torrent es la localización de diferentes piezas del archivo de destino. Los torrents funcionan dividiendo el archivo de destino en pequeños fragmentos de información, localizados en un número ilimitado de hosts diferentes. Por medio de este método, los torrents son capaces de descargar archivos grandes rápidamente. Cuando un cliente (el receptor del archivo de destino) ha iniciado una descarga por torrent, los fragmentos del archivo de destino que son necesitados pueden ser encontrados fácilmente, basado en la información del torrent. Una vez que todos los fragmentos son descargados, el cliente puede ensamblarlos en una forma utilizable. Nota: la descarga debe ser completada antes de que pueda ensamblarse en una forma utilizable.


Un archivo torrent contiene las URLs de muchos trackers y la integridad de los metadatos de todos los fragmentos. También puede contener metadatos adicionales definidos en extensiones de la especificación de BitTorrent. Estos son conocidos como "Propuestas de Mejora BitTorrent". Ejemplos de tales propuestas incluyen metadatos para informar quien ha creado el torrent y cuando.

sistema bittorrents

BitTorrent es un protocolo diseñado para el intercambio de archivos punto a punto (peer-to-peer) en Internet. Es uno de los protocolos más comunes para la transferencia de archivos grandes.

El programador Bram Cohen diseñó el protocolo en abril de 2001 y publicó su primera implementación el 2 de julio de 2001. Actualmente es mantenido por la empresa de Cohen, BitTorrent, Inc. Existen numerosos clientes BitTorrent disponibles para varios sistemas operativos.


En enero de 2012, BitTorrent tenía 150 millones de usuarios activos de acuerdo con BitTorrent, Inc., basándose en esto, estimaban que el número total de usuarios mensuales de BitTorrent era mayor de 250 millones. En cualquier instante de tiempo BitTorrent tiene, en promedio, más usuarios activos que YouTube y Facebook juntos (en un instante de tiempo, no en número total de usuarios únicos específicamente de BitTorrent). Por otro lado, tras el cierre de la web Megaupload, el uso de esta plataforma se ha incrementado considerablemente.

gestores de descargas bittorrent

Un gestor (o administrador o acelerador) de descargas es un programa diseñado para descargar archivos de Internet, ayudado de distintos medios como algoritmos o formas más sencillas, para ir pausando y reanudando las descargas de algún servidor FTP o página de Internet. Es muy recomendable su utilización cuando se trata de archivos grandes, tales como imágenes ISO; programas; vídeos; música; etc.

A diferencia de un navegador (que permite navegar por las páginas de la web, siendo la función de descarga de menos importancia), un gestor de descargas permite automatizar la descarga de varios archivos de acuerdo a parámetros de configuración. En particular, un gestor de descargas se puede utilizar para hacer una réplica de un sitio web completo.

trackers

Un tracker o rastreador de BitTorrent es un servidor especial que contiene la información necesaria para que los peers se conecten con otros peers asistiendo la comunicación entre ellos usando el protocolo BitTorrent. Los rastreadores son el único y principal punto de encuentro al cual los clientes requieren conectarse para poder comunicarse y poder iniciar una descarga. En la actualidad existen una serie de comunicaciones alternas a los rastreadores que permiten a un cliente encontrar a otros clientes sin la necesidad de comunicarse anteriormente con un rastreador.

Los rastreadores no sólo coordinan la comunicación y distribución de datos entre los peers que tratan descargar el contenido referido por los torrents, sino que también siguen de cerca y sin perder de vista las estadísticas y la información de verificación para cada torrent. Si el rastreador se viene abajo y alguien intenta comenzar una descarga de un torrent, no podrá conectarse con el enjambre de usuarios. Los errores del rastreador son generalmente temporales, por lo que es recomendable el intentar conectar una y otra vez hasta lograrlo o en caso contrario, buscar otra fuente de donde descargar el mismo contenido.

El rastreador es el único que sabe dónde se localiza cada peer dentro de un enjambre, por lo que es indispensable su disponibilidad para poder comunicarse con el resto de los usuarios, por lo menos hasta haberse conectado con el enjambre.

Los rastreadores se dividen en dos clases, privados y públicos. La principal diferencia entre ellos es que los privados requieren que los peers sean usuarios registrados de un sitio web, mientras que en los rastreadores públicos cualquiera puede comunicarse con ellos. Los rastreadores privados generalmente guardan las estadísticas de tráfico de cada usuario y utilizan un sistema de porcentajes que permite saber si el usuario comparte o no los datos que haya descargado o esté descargando. Muchos de estos rastreadores suelen expulsar a los usuarios que tienen un porcentaje bajo, ya que al no compartir no colaboran con la red.

Seed and leech:

seed o seeder o semillas, son las personas que tienen el archivo completo y lo estan compartiendo.

leech o leechers o clientes, con las personas que están descargando el archivo y no lo tienen completo y solo comparten lo que ya descargaron

a más seeders y menos leechers, más posibilidades hay de que el archivo descargue más rápido.

la velocidad de descarga depende tambien de las velocidades de subida y de bajada de cada uno, de las limitaciones de subida que le ponga cada seeder, etc...
es como una cañeria de agua donde abren y cierran canillas con mas o menos caudal, en este caso es caudal de datos.

jueves, 11 de diciembre de 2014

ping

Como programa, ping es una utilidad diagnóstica en redes de computadoras que comprueba el estado de la comunicación del host local con uno o varios equipos remotos de una red a IP por medio del envío de paquetes ICMP de solicitud y de respuesta. Mediante esta utilidad puede diagnosticarse el estado, velocidad y calidad de una red determinada.


Ejecutando Ping de solicitud, el Host local envía un mensaje ICMP, incrustado en un paquete IP. El mensaje ICMP de solicitud incluye, además del tipo de mensaje y el código del mismo, un número identificador y una secuencia de números, de 32 bits, que deberán coincidir con el mensaje ICMP de respuesta; además de un espacio opcional para datos.

miércoles, 10 de diciembre de 2014

DEEP WEB

Se conoce como Internet profunda o Internet invisible (en inglés: Deepweb, Invisible Web, Deep Web, Dark Web o Hidden Web) a todo el contenido de Internet que no forma parte del Internet superficial, es decir, de las páginas indexadas por las redes de los motores de búsqueda de la red. Esto se debe a las limitaciones que tienen las redes para acceder a todos los sitios web por distintos motivos. La mayor parte de la información encontrada en la Internet Profunda está enterrada en sitios generados dinámicamente y para los motores de búsqueda tradicionales es difícil hallarla. Fiscales y Agencias Gubernamentales han calificado a la Internet Profunda como un refugio para la delincuencia debido al contenido ilícito que se encuentra en ella.

CAUSAS

La principal causa de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda (Google,Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la "Internet profunda" se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la Internet Profunda esto no significaría que ésta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.

Los siguientes son algunos de los motivos por los que los buscadores son incapaces de indexar la Internet profunda:

·         Páginas y sitios web protegidos con contraseñas o códigos establecidos.

·         Páginas que el buscador decidió no indexar: esto se da generalmente porque la demanda para el archivo que se decidió no indexar es poca en comparación con los archivos de texto HTML; estos archivos generalmente también son más “difíciles” de indexar y requieren más recursos.


·         Sitios, dentro de su código, tiene archivos que le impiden al buscador indexarlo.

·         Documentos en formatos no indexables.

·         De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan bases de datos. Para estos casos los buscadores pueden llegar a la interfaz creada para acceder a dichas bases de datos, como por ejemplo catalogo de librerías o agencias de gobierno.


·         Enciclopedias, diccionarios, revistas en las que para acceder a la información hay que interrogar a la base de datos, como por ejemplo la base de datos de la RAE.

·         Sitios que tienen una mezcla de media o archivos que no son fáciles de clasificar como visible o invisible (Web opaca).


·         La información es efímera o no suficientemente valiosa para indexar. Es posible indexar está información pero como cambia con mucha frecuencia y su valor es de tiempo limitado no hay motivo para indexarla.

·         Páginas que contienen mayormente imágenes, audio o video con poco o nada de texto.

·         Los archivos en formatos PostScript, Flash, Shockwave, ejecutables (.exe), archivos comprimidos (.zip, .tar, etc)

·         Información creada en páginas dinámicas después de llenar un formulario, la información detrás de los formularios es invisible.

·         Documentos dinámicos, son creados por un script que selecciona datos de diversas opciones para generar una página personalizada. Este tipo de documentos, aunque sí se pueden indexar, no están en los motores de búsqueda porque en ocasiones puede haber varias páginas iguales, pero con pequeños cambios, y las arañas web quedan atrapadas en ellos.

·         Es un sitio aislado, es decir, no hay ligas que lo vinculen con otros sitios y viceversa.

·         Son subdirectorios o bases de datos restringidas.


  
El internet se ve divido en dos ramas, La internet profunda y la superficial. El Internet superficial se compone de páginas estáticas o fijas , mientras que Web profunda está compuesta de páginas dinámicas. La páginas estáticas no dependen de una base de datos para desplegar su contenido si no que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia. Todos los cambios se realizan directamente en el código y la nueva versión de la página se carga en el servidor. Estas páginas son menos flexibles que las páginas dinámicas. Las páginas dinámicas se crean como resultado de una búsqueda de base de datos. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario.


Denominación

Son páginas de texto, archivos, o en ocasiones información a la cual se puede acceder por medio de la World Wide Web que los buscadores de uso general no pueden, debido a limitaciones o deliberadamente, agregar a sus indices de páginas webs.

La Web profunda se refiere a la colección de sitios o bases de datos que un buscador común, como Google, no puede o quiere indexar. Es un lugar especifico del Internet que se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, a menos que uno lo deseé.


Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencionó que Jill Ellsworth utilizó el término "la Web invisible" en 1994 para referirse a los sitios web que no están registrados por algún motor de búsqueda.

Rastreando la Internet profunda

Los motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web profunda. El Protocolo del sitio (primero desarrollado e introducido por Google en 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la Internet Profunda en los servidores web en particular. Ambos mecanismos permiten que los servidores web anuncien las direcciones URL que se puede acceder a ellos, lo que permite la detección automática de los recursos que no están directamente vinculados a la Web de la superficie. El sistema de búsqueda de la Web profunda de Google pre-calcula las entregas de cada formulario HTML y agrega a las páginas HTML resultantes en el índice del motor de búsqueda de Google. Los resultados surgidos arrojaron mil consultas por segundo al contenido de la Web profunda15. Este sistema se realiza utilizando tres algoritmos claves:

La selección de valores de entrada, para que las entradas de búsqueda de texto acepten palabras clave.
La identificación de los insumos que aceptan sólo valores especificos (por ejemplo, fecha).
La selección de un pequeño número de combinaciones de entrada que generan URLs adecuadas para su inclusión en el índice de búsqueda Web.

Ingresando a la web profunda

Las Arañas (Web crawler)

Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre la totalidad de Internet en busca de las posibles respuestas, si no que busca en su propia base de datos, que ha sido generada e indizada previamente. Se utiliza el término "Araña web" (en inglés Web crawler) o robots (por sofware, comúnmente llamados "bots") inteligentes que van haciendo búsquedas por enlaces de hipertexto de página en página, registrando la información allí disponible.

TOR

A pesar de que son muchos los servicios y programas para acceder a la web profunda, el software más popular es Tor (The Onion Router), pero existen otras alternativas como I2P y Freenet.

TOR es un proyecto diseñado e implementado por la marina de los Estados Unidos, posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una organización en defensa de los derechos digitales). Actualmente subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en Internet manteniendo su privacidad y anonimato.

A diferencia de los navegadores de Internet convencionales, Tor le permite a los usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones a 50 millones de veces al año, hay 800,000 usuarios diarios de Tor y un incremento del de 20 % en el 2013, Tor puede acceder a 6,500 sitios web ocultos.


Bitcoin

Mercados ilegales están alojados en servidores que son exclusivos para usuarios de Tor. En estos sitios ,se pueden encontrar drogas, armas, o incluso asesinos a sueldo. Se utiliza la moneda digital llamada Bitcoin, que tiene sus orígenes en 2009, pero que se ha vuelto todo un fenómeno desde 2012, que se intercambia a través de billeteras digitales entre el usuario y el vendedor , lo que hace que sea prácticamente imposible de rastrear.




Recursos de la internet profunda
Los recursos de la Internet Profunda pueden estar clasificados en una de las siguientes categorías:

  • Contenido de Acceso limitado: los sitios que limitan el acceso a sus páginas de una manera técnica (Por ejemplo, utilizando el estándar de exclusión de robots o captcha, que prohíben los motores de búsqueda de la navegación por y la creación de copias en caché.
  • Contenido Dinámico: Las páginas dinámicas que devuelven respuesta a una pregunta presentada o acceder a través de un formulario, especialmente si se utilizan elementos de entrada en el dominio abierto como campos de texto.
  • Contenido No Vinculado: páginas que no están conectadas con otras paginas, que pueden impedir que los programas de rastreo web tengan acceso al contenido. Este material se conoce como páginas sin enlaces entrantes.
  • Contenido Programado: páginas que sólo son accesibles a través de enlaces producidos por JavaScript, así como el contenido descargado de forma dinámica a partir de los servidores web a través de soluciones de Flash o Ajax.
  • Sin contenido HTML: contenido textual codificado en multimedia (imagen o video) archivos o formatos de archivo específicos no tratados por los motores de búsqueda.
  • Web privada: los sitios que requieren de registro y de una contraseña para iniciar sesión.
  • Web contextual: páginas con contenidos diferentes para diferentes contextos de acceso (por ejemplo, los rangos de direcciones IP de clientes o secuencia de navegación anterior).

NIVELES DE DEEP WEB

Niveles de deep web

Nivel 1 - Surface Web:

web

En este nivel se encuentra la web en general, páginas como Google o Facebook. O donde estamos actualmente T.


 web

Nivel 2 - Bergie Web:

Deep

En este nivel se encuentra el resto de la internet conocida pero más "under" que el nivel uno. Páginas porno, la comunidad 4chan, servidores FTP, porno "jailbait" (menores que por su apariencia física aparentan ser mayores de edad), etc.

Deep


Nivel 3 - Deep Web (Se requiere Proxy):

TOR

En este nivel ya estamos en la deep web y las cosas se ponen más escabrosas. Se requiere usar un proxy para sumergirte de forma anónima, aquí podemos encontrar jailbait más heavy, pornografía infantil "light" (CP significa childporn), gore, hackers, script kiddies, información sobre virus, etc.


Dentro de este nivel, si nos sumergimos aún más vamos a necesitar, ya no un proxy, sino el Tor para navegar de forma anónima y más segura.





Nivel 4 Charter Web (Se requiere Tor):

profunda


Este nivel es lo más profundo que un usuario común puede llegar dentro de la deep web. Nos encontramos con páginas como: Hard Candy, PedoPlanet (grupos de pedófilos), la hidden wiki, una página con enlaces dentro de la deep web, vídeos y libros prohibidos, material visual cuestionable, asesinos a sueldo, venta de drogas, tráfico de humanos y el resto del mercado negro.


Dentro del nivel 4 hay una parte aún más profunda a la que no se puede llegar por medios convencionales, se requiere una modificación de hardware llamada "closed shell system" y la cosa se pone muy seria. Esta parte contiene, por ejemplo, pornografía infantil "hardcore" como scat, rape y snuff, redes de asesinos a sueldo, la "law of 13" relacionada con los Illuminati, experimentos sobre la segunda guerra mundial, terrorismo y se dice que también la ubicación de la Atlántida, etc.


Por increíble que parezca, el 80% de internet se encuentra debajo de todo lo nombrado anteriormente y para sumergirse aún más profundo se necesita un programa, imposible de conseguir y que no se sabe bien si existe o es un mito llamado "polymeric falcighol derivation" que utiliza algoritmos de mecánica cuántica, se supone que sólo el gobierno puede acceder a esta parte.


Nivel 5 - Marianas Web:

snoff

Poco y nada se conoce sobre este nivel. El nombre deriva de la Fosa de las Marianas, la fosa marina más profunda conocida, localizada en el sureste de las Islas Marianas cerca de Guam. Se dice que es un nivel muy peligroso y controlado por el gobierno, la parte más profunda de la deep web y donde "nadie quiere entrar".

snoff


Zion y La Liberté:

Deep Web (Niveles, y que contiene cada uno)

En lo más profundo de la deep web existen estos dos sitios. La Liberté es una página francesa, una de las más profundas dentro de la deep web. Para poder ingresar tanto a Zion como a La Liberté, se necesita invitación. Los diferentes foros dentro de estas páginas están tan protegidos que se necesita un usuario y contraseña distintos para cada foro. Zion supera a La Liberté en profundidad, ya que La Liberté sólo recibe información y videos liberados por Zion, en estas páginas se puede encontrar por ejemplo, el famoso video de los rusos matando a un mendigo a martillazos y clavándole un destornillador en el ojo, otro de rusos dándole con un bate a unos indigentes en medio del bosque hasta partirles la cabeza (literalmente). Vídeos de peleas hasta morir, de violencia de género (como un hombre que apaleaba a puñaladas a una chica en la calle), violencia contra animales, vídeos de ejecuciones, etc. También hay una sección de peleas a muerte en tiempo real, eventos que se tienen que pagar por medio de bitcoins y se puede apostar usando esta moneda. Algunos dicen que las apuestas normalmente son de 10 mil dólares para arriba. También se dice que Zion es una idea conceptual para referirse a lo más profundo de la deep web, pero no es una dirección URL física a la que poder acceder.

http://www.taringa.net/posts/offtopic/16047905/Deep-Web-Niveles-y-que-contiene-cada-uno.html

http://es.wikipedia.org/wiki/Internet_profunda#Denominaci.C3.B3n

Navegadores de deep web:

Archivos

Find that File

http://www.findthatfile.com

Es un buscador muy ágil que te permite bucear en distintas tipologías de formato (torrent, emule, pdf, vídeo, etc) además te da la posibilidad de filtrar por tipo de localización, por si quieres buscar por ejemplo en FTP. Y si quieres buscar en la web profunda de un modo todavía más específico en su sección http://www.findthatfile.com/about.php tienen una lista con todos los buscadores que han desarrollado. ¡Altamente recomendable!

Files tube
http://www.filestube.to/

Otro de esos buscadores maravillosos que te ayudan a encontrar cualquier tipo de archivo en la web profunda. En esta ocasión, este buscador rastrea en prácticamente todas las webs que permiten subir archivos para compartir, en total unos 58 puntos de contacto entre ellos el conocido DropBox. También te da la posibilidad de buscar por periodos de tiempos para pulir un poco más tu búsqueda.

Noticias:

Look ahead
http://lookahead.surfwax.com

Este buscador bucea entre 140 rss muy populares con la posibilidad de un histórico de 7 días. Es por tanto muy bueno para monitorizar noticias, por ejemplo de un conflicto determinado y construir un análisis de Timeline. Eso sí, hay que buscar en inglés pues son medios anglosajones.

Clusty
http://clusty.com/

Es un buscador que organiza por temáticas. Ya los vimos en 13 metabuscadores. En esta ocasión, este concretamente recupera muy bien noticias de la red. Ideal para análisis de medios de comunicación y saber lo que dicen unos y otros. Por supuesto también para localizar propaganda. Además, te permite hacer búsquedas en distintos formatos (imagenes, blogs, wikis, etc.). Muy bueno.

Newspaper Archive (comercial)
http://newspaperarchive.com/

Sin lugar a dudas una de las bases de datos de noticias más importantes de Internet. Eso sí, centrada específicamente en USA, aunque con la posibilidad de acceder a otros países como Canadá. Es de pago. Pero conviene saber que existe una hemeroteca virtual de este tipo.

Publicaciones:

Deepdyve
http://www.deepdyve.com/

Espectacular buscador de ámbito científico que recoge millones de publicaciones. Sin duda uno de los mejores para el ámbito académico y de investigación. Te permite, además crear una alerta sobre un tema concreto para estar al día de todo lo nuevo que van localizando e incorporando.

Highwire Stanfor
http://highwire.stanford.edu

Este buscador de publicaciones es realmente poderoso, nos busca publicaciones comerciales, pero también otras que están disponibles gratuitamente en pdf. Con él podemos conocer quienes son los investigadores más relevantes de un tema y acertar completamente en nuestras lecturas “para ponernos al día”.

Personas:

Pipl.com
https://pipl.com

Curioso buscador de personas. Está configurado para entrar en las principales redes sociales y buscar el nombre que queremos. Puede ser muy útil para buscar aquellas personas que han configurado sus redes de un modo muy personal. Pero evidentemente se le escapan cosas.

Literatura gris:

Docuticker
http://www.docuticker.com/

Más que un buscador como tal es un repositorio donde recopilan información emitida por distintas organizaciones, think tank y gobiernos. Te permite suscribirte al boletín de novedades como si fuera una actualización de feed. Tiene un buscador interno basado en tecnología Google para localizar publicaciones específicas por clave de búsqueda. En el menú de navegación derecho disponen de árboles de búsqueda si lo que te interesa es un tema en concreto.

Buscador de archivos desclasificados de la CIA
http://www.foia.cia.gov/

Muy buen buscador para ayudarte en tus búsquedas de los documentos que va desclasificando el gobierno americano. Los documentos están en pdf, aunque no puedes bajártelos todos.

Directorio Internacional de literatura gris
http://www.greynet.org/internationaldirectory.html

Esta lista en pdf incluye distintas universidades y organismo públicos que disponen de buscadores a sus propios documentos. Puede ser útil en un momento determinado para encontrar alguna publicación especial.


Históricos

Internet Archive
https://archive.org/

Es un repositorio de información muy variada en distintos tipos de formato. Permite filtrar por fecha, número de descargas, etc por lo que podemos encontrar verdaderas joyas “abandonadas” en la Red.


Lo + profundo:

Torch - Onion
https://xmh57jrzrnw6insl.onion.to/

La versión web de la conocida red Tor por la que se suele mover todo el “underground” que nos podemos imaginar. Este buscador no facilita el anonimato. Para el que todavía no sabe lo que es Tor aquí está la web oficial: https://www.torproject.org/ Y si quieres un pequeño tutorial muy interesante y orientado a la ciberseguridad, te recomiendo que veas el vídeo de las jornadas de ciberdefensa "Deep Web. Redes Tor" te ayudará a comprender de un modo claro y ameno de qué va esta película ;-)

Torsearch - Onion
https://kbhpodhnfxl3clb4.onion.to/

Nace el hermano pequeño del buscador Tor. Todavía está muy incipiente y como ellos dicen sólo busca dentro del contenido alojado en la propia Red Tor. Parece que tiene la estructura comercial del Google así que no me extrañaría que pronto la veamos crecer. Aunque es evidente que se perderán numerosas entradas “interesantes”, pues si deja de ser una Red “profunda” muchas personas dejarán de utilizarla para compartir contenido, especialmente de sexo, drogas, armas y piratería que son las temáticas más utilizadas en esta Red. En fin, ya veremos en qué acaba este proyecto que tiene pinta de ser sólo para conseguir dinero.

PasteBin
http://pastebin.com

Ésta es una Red Social muy útil cuando se pretende chatear y acompañar el diálogo con alguna información en concreto, porque permite acompañar el diálogo con la información que “pasteemos”. Evidentemente es muy inestable y volátil, pues los perfiles publican y despublican rápidamente. Pero a veces se encuentran cosas interesantes





viernes, 5 de diciembre de 2014

Windows update

Windows Update es el módulo vía red de actualización de Windows.


A partir de Windows 98, Microsoft incluyó el módulo Windows Update, que contactaba al sitio oficial con un ActiveX que permitía ver la información del sistema y descargar las actualizaciones adecuadas. A partir de Windows Me Microsoft decidió hacer más fácil la búsqueda de actualizaciones, incluyendo Automatic Update o Actualizaciones Automáticas. A partir de la versión Windows XP, Microsoft desarrolló Microsoft Update herramienta que facilitaría más las actualizaciones ya que éste no sólo buscaba actualizaciones para Windows, sino que de forma automática busca actualizaciones para la Paquetería Office y las instala. Esta tecnología se puede descargar desde el sitio oficial de Windows Update.

FUNCIONAMIENTO

Ofrece una localización para descargar las actualizaciones componentes del sistema crítico, servicios, arreglos de la seguridad, y mejoras libremente seleccionadas por los usuarios. Además, detecta automáticamente el hardware del usuario y proporciona actualizaciones del producto cuando están disponibles, y puede ofrecer versiones beta de algunos programas de Microsoft.

La mayoría de las actualizaciones se lanzan el segundo martes de cada mes. Alternativamente, los arreglos y las actualizaciones se pueden descargar siempre manualmente del sitio web de Microsoft. La actualización de Microsoft y versiones anteriores requieren Internet Explorer o así como el uso de un control de ActiveX. Se cifra usando Microsoft Scripting y los idiomas VBScript y JScript, y es compatible con Netscape 8.0. Son también compatibles otros navegadores para Windows tales como Mozilla Firefox y Opera. En julio de 2005, Update requiere Windows Genuine Advantage.

HISTORIA
Windows Update primero fue un simple sitio web para windows 95 y 98 con temas de escritorio, drivers y componentes opcionales como NetMeeting. Para windows 98 también existía updates específicos para el problema del año 2000.
Con windows 98 existía Critical Update Notification Tool, un app que en segundo plano busca en los servidores de microsoft cada cinco minutos, un archivo llamado cufic.cab (el cual podía ocupar hasta 400 KB de tamaño), el cual contiene toda unal lista de actualizaciones; el mensaje de actualización al posponerlo se mostraría el día siguiente. Con el lanzamiento de Windows Me en 2000, Actualizaciones automáticas reemplaza a Critical update Tool. A diferencia de su predecesor, Actualizaciones automáticas incluye la posibilidad de descargar e instalar las actualizaciones sin necesidad de utilizar un navegador web. En lugar de la programación de cinco minutos utilizado por su predecesor, el cliente de Actualizaciones automáticas comprueba los servidores de Windows Update una vez al día. El usuario tiene la opción de descargar las actualizaciones disponibles y luego pedir al usuario para instalarlos, o para notificar al usuario antes de descargar las actualizaciones disponibles.
Windows XP y Win 2000 Service Park 3 introducen Background Intelligent Transfer Service, que descarga las actualizaciones sin notificaciones, cuando el sistema esta en reposo.
En 2002, Microsoft lanzó Software Update Services, un componente que se podría instalar en sistemas Windows 2000 Server para permitir descargar actualizaciones para una red entera a través de un servidor central. El Windows 2000 Service Pack incluyó un nuevo componente (ya incorporado en Windows XP) llamado Automatic Updates, permitiendo descargar e instalar actualizaciones de forma oculta y automática.
A finales de 2004, Microsoft lanzó Windows update 5, incluido en el service pack 2 para Windows XP, con varios cambios en el funcionamiento interno de Update. Los usuarios sin acceso internet de banda ancha pueden pedir un CD SP2 desde el sitio web de Microsoft; después de instalar debe regresar a sitio Microsoft para saber si hay más actualizaciones para SP2.
En 2005, se presentó una funcionalidad beta para componentes Microsoft Office Exchange y SQL con Update . Esto responde a una crítica común entre los clientes que era demasiado difícil conseguir todas las actualizaciones necesarias de tales componentes desde sus propios sitios correspondientes. Desde 2006, Microsoft también está agregando actualizaciones en la aplicación Windows Defender anti-spyware.
En Windows Vista , Windows Server 2008 y posteriores, Internet Explorer ya no es necesario para seleccionar y descargar las actualizaciones. En su lugar , una app dentro del panel de control tiene usa función. También instalar updates para Microsoft Office, pero está desactivada de forma predeterminada. El panel de control instalar automáticamente actualizaciones marcadas como importantes, pero asl recomendadas se instalar manualmente.


Windows Vista y 7 da un plazo de 4 horas antes forzar un reinicio del sistema; Windows 8 amplia este plazo a 72 horas.

URL

Un localizador de recursos uniforme o URL —siglas en inglés de uniform resource locator— es un identificador de recursos uniforme (URI) cuyos recursos referidos pueden cambiar, esto es, la dirección puede apuntar a recursos variables en el tiempo.1 Están formados por una secuencia de caracteres, de acuerdo a un formato modélico y estándar, que designa recursos en una red, como Internet.

Los localizadores uniformes de recursos fueron una innovación en la historia de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir a los autores de documentos establecer hiperenlaces en la World Wide Web. Desde 1994, en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más general de URI (Uniform Resource Identifier, en español identificador uniforme de recurso), pero el término URL aún se utiliza ampliamente.

Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que las iniciales URL significan universal -en lugar de 'uniform'- resource locator (localizador universal de recursos). Esta se debe a que en 1990 era así, pero al unirse las normas "Functional Recommendations for Internet Resource Locators" [RFC1736] y "Functional Requirements for Uniform Resource Names" [RFC1737] pasó a denominarse Identificador Uniforme de Recursos [RFC 2396]. Sin embargo, la U en URL siempre ha significado "uniforme".

El URL es una cadena de caracteres con la cual se asigna una dirección única a cada uno de los recursos de información disponibles en la Internet. Existe un URL único para cada página de cada uno de los documentos de la World Wide Web, para todos los elementos de Gopher y todos los grupos de debate USENET, y así sucesivamente.

El URL de un recurso de información es su dirección en Internet, la cual permite que el navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el nombre del ordenador que proporciona la información, el directorio donde se encuentra, el nombre del archivo, y el protocolo a usar para recuperar los datos para que no se pierda alguna información sobre dicho factor que se emplea para el trabajo.

miércoles, 3 de diciembre de 2014

SERVIDOR WEB LOCAL

Un servidor web o servidor HTTP es un programa informático que procesa una aplicación del lado del servidor, realizando conexiones bidireccionales y/o unidireccionales y síncronas o asíncronas con el cliente y generando o cediendo una respuesta en cualquier lenguaje o Aplicación del lado del cliente. El código recibido por el cliente suele ser compilado y ejecutado por un navegador web. Para la transmisión de todos estos datos suele utilizarse algún protocolo. Generalmente se usa el protocolo HTTP para estas comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El término también se emplea para referirse al ordenador que ejecuta el programa.



Arquitectura

Petición GET

Un servidor web opera mediante el protocolo HTTP, de la capa de aplicación del Modelo OSI. Al protocolo HTTP se le asigna habitualmente el puerto TCP 80. Las peticiones al servidor suelen realizarse mediante HTTP utilizando el método de petición GET, en el que el recurso se solicita a través de la url al servidor Web.
GET /index.html HTTP/1.1 HOST: www.host.com

En la barra de URL de un navegador cualquiera, la petición anterior sería análoga a la siguiente dirección Web:

www.host.com/index.html

Esquema de una petición GET
Petición Web
Véase también: Navegador Web
Véase también: Telnet
El navegador, por medio de la interfaz de usuario, permite al usuario realizar una o varias peticiones Web. La interfaz de usuario o entorno de usuario es el conjunto de elementos del navegador que permiten realizar la petición de forma activa. Una petición Web no sólo puede ser realizada mediante un navegador, sino con cualquier herramienta habilitada para tal fin, como una consola de comandos Telnet.


1.1 Socket a dirección DNS

Se produce una socket con un servidor dado en dirección IP mediante TCP. Por lo general las direcciones que el navegador posee inicialmente son direcciones DNS (direcciones alfanuméricas) que deberá convertir a direcciones numéricas.

1.2 Resolución de DNS a IP
Si la dirección dada es DNS y no existe una regla en la base de datos DNS, el Host Resolver Request solicita al servidor DNS la o las direcciones IPs correspondientes. El navegador crea una nueva regla y almacena la dirección IP junto a la dirección DNS en su base de datos de reglas DNS.

1.3 Recuperación de la regla DNS

Una vez almacenada la regla, se realiza una petición a la base de datos DNS para recuperar los valores de la regla.

1.4 Socket a dirección IP

Se produce una socket con la dirección IP mediante TCP. La dirección IP puede haberse recuperado en el paso anterior.

SOCKET 192.168.0.1

1.5 Preparación de la petición

Se crea la petición GET estableciendo la url, un flag, la priority de la petición y el method (implícitamente GET).

1.6 Apertura Caché

Se abre y/o se crea una entrada en el http cache.

1.7 Efectuación de la petición

Se realiza la petición GET. Se leen las cabeceras HTTP de la http transaction y más tarde el cuerpo de la http transaction.

GET /index.html HTTP/1.1

1.8 Consulta en Caché

Se consulta en el caché de disco si existe una entrada en el caché asociada al recurso que se ha solicitado. Los valores son created (true o false) y key (la url del recurso).

1.9 Retribución boleana existencialista del recurso solicitado

Si la entrada no existe (si el valor de created es false) se escriben los datos en el caché de disco. Si no, se lee directamente.

2.0 Presentación visual del recurso

Se concluye la operación y se muestra en pantalla (si es preciso) la información.

Petición GET pasiva
Javascript permite realizar modificaciones en el estado del navegador. El estado del navegador viene definido por el array de objetos location del objeto global Window. Se referencia a tal objeto con window.location. En concreto window.location.href contiene la dirección actual del navegador Web.

Si una parte del script ejecuta tal sentencia:

window.location.href='http://wikipedia.org';

El navegador hará tal petición Web sin que el usuario haya mediado en tal circunstancia o sus efectos. Del mismo modo se producirá una nueva petición GET si se altera el valor de window.location.search o window.location.protocol.

Procedimiento del navegador
La tarea del navegador Web es crear la petición a partir de los datos recogidos en el entorno de usuario de elementos del mismo, como enlaces, el valor del texto de la barra de búsqueda, los metatags.

<a href="http://es.wikipedia.org">Entrar</a>

Al pulsar en el enlace, el navegador crea automáticamente la petición GET y las cabeceras de la petición en base a los metatags (cabeceras definidas), los cookies y cabeceras automáticas del navegador, para luego enviarlas junto a la petición al servidor.


ACTUALIZACION DE WINDOWS

Esta herramienta se conecta regularmente a los servidores de Microsoft, y se encarga de buscar, proponer e instalar las últimas actualizaciones para Windows y otros componentes instalados en este.

Uso de la herramienta de Actualización de Windows

Proteger Windows XP

Proteger Windows XP

Para utilizar la actualización automática se deben seguir los siguientes pasos:

1. Hacer clic en Inicio y, después, en Panel de control.

2. Clic en Propiedades del sistema, aquí se accede a la pantalla donde están las alternativas y seleccionar la pestaña Actualizaciones Automáticas.

A) En esta opción las actualizaciones del XP bajan automáticamente al sistema y se instalan directamente.

B) Aquí se establece la hora en la que queremos que bajen las actualizaciones.

C) Con esta alternativa la actualización baja de internet y solo se instalará cuando nosotros lo deseemos.

D) Esta opción avisa las publicaciones que Microsoft realiza ante una nueva actualización, pero no se baja al sistema.

E) Haciendo un clic aquí se desactivan las actualizaciones automáticas


http://www.alegsa.com.ar/Dic/actualizacion%20automatica%20de%20windows.php#sthash.h9JARrnC.dpuf

lunes, 1 de diciembre de 2014

DNS

Domain Name System o DNS (en español «Sistema de Nombres de Dominio») es un sistema de nomenclatura jerárquica para computadoras, servicios o cualquier recurso conectado a Internet o a una red privada. Este sistema asocia información variada con nombres de dominios asignado a cada uno de los participantes. Su función más importante, es traducir (resolver) nombres inteligibles para las personas en identificadores binarios asociados con los equipos conectados a la red, esto con el propósito de poder localizar y direccionar estos equipos mundialmente.

El servidor DNS utiliza una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.

La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.mx es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable.[cita requerida] La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre.


Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos. El crecimiento explosivo de la red causó que el sistema de nombres centralizado en el archivo hosts no resultara práctico y en 1983, Paul V. Mockapetris publicó los RFC 882 y RFC 883 definiendo lo que hoy en día ha evolucionado hacia el DNS moderno (estos RFC han quedado obsoletos por la publicación en 1987 de los RFC 1034 y 1035).


Componentes

Para la operación práctica del sistema DNS se utilizan tres componentes principales:

Los Clientes fase 1: Un programa cliente DNS que se ejecuta en la computadora del usuario y que genera peticiones DNS de resolución de nombres a un servidor DNS (Por ejemplo: ¿Qué dirección IP corresponde a nombre.dominio?);
Los Servidores DNS: Que contestan las peticiones de los clientes. Los servidores recursivos tienen la capacidad de reenviar la petición a otro servidor si no disponen de la dirección solicitada.
Y las Zonas de autoridad, es una parte del espacio de nombre de dominios sobre la que es responsable un servidor DNS, que puede tener autoridad sobre varias zonas. ( Por ejemplo : subdominio .ORG, .COM, etc).

Entendiendo las partes de un nombre de dominio

Un nombre de dominio usualmente consiste en dos o más partes (técnicamente «etiquetas»), separadas por puntos cuando se las escribe en forma de texto. Por ejemplo, www.example.com o es.wikipedia.org

A la etiqueta ubicada más a la derecha se le llama dominio de nivel superior (en inglés top level domain). Como com en www.ejemplo.com o org en es.wikipedia.org
Cada etiqueta a la izquierda especifica una subdivisión o subdominio. Nótese que "subdominio" expresa dependencia relativa, no dependencia absoluta. En teoría, esta subdivisión puede tener hasta 127 niveles, y cada etiqueta puede contener hasta 63 caracteres, pero restringidos a que la longitud total del nombre del dominio no exceda los 255 caracteres, aunque en la práctica los dominios son casi siempre mucho más cortos.
Finalmente, la parte más a la izquierda del dominio suele expresar el nombre de la máquina (en inglés hostname). El resto del nombre de dominio simplemente especifica la manera de crear una ruta lógica a la información requerida. Por ejemplo, el dominio es.wikipedia.org tendría el nombre de la máquina "es", aunque en este caso no se refiere a una máquina física en particular.
El DNS consiste en un conjunto jerárquico de servidores DNS. Cada dominio o subdominio tiene una o más zonas de autoridad que publican la información acerca del dominio y los nombres de servicios de cualquier dominio incluido. La jerarquía de las zonas de autoridad coincide con la jerarquía de los dominios. Al inicio de esa jerarquía se encuentra los servidores raíz: los servidores que responden cuando se busca resolver un dominio de primer y segundo nivel.


DNS en el mundo real

Los usuarios generalmente no se comunican directamente con el servidor DNS: la resolución de nombres se hace de forma transparente por las aplicaciones del cliente (por ejemplo, navegadores, clientes de correo y otras aplicaciones que usan Internet). Al realizar una petición que requiere una búsqueda de DNS, la petición se envía al servidor DNS local del sistema operativo. El sistema operativo, antes de establecer alguna comunicación, comprueba si la respuesta se encuentra en la memoria caché. En el caso de que no se encuentre, la petición se enviará a uno o más servidores DNS.


La mayoría de usuarios domésticos utilizan como servidor DNS el proporcionado por el proveedor de servicios de Internet. La dirección de estos servidores puede ser configurada de forma manual o automática mediante DHCP. En otros casos, los administradores de red tienen configurados sus propios servidores DNS.

DNS en el mundo real.svg

En cualquier caso, los servidores DNS que reciben la petición, buscan en primer lugar si disponen de la respuesta en la memoria caché. Si es así, sirven la respuesta; en caso contrario, iniciarían la búsqueda de manera recursiva. Una vez encontrada la respuesta, el servidor DNS guardará el resultado en su memoria caché para futuros usos y devuelve el resultado.

Es importante añadir que el protocolo DNS generalmente transporta las peticiones y respuestas por puerto UDP, puesto que al ser un protocolo que por su estructura y al tener menos niveles de seguridad es mucho más rápido. Los motivos por el cual en ocasiones se usa el puerto TCP son cuando se necesitan transportar respuestas mayores de 512 bytes de longitud y cuando por razones de fiabilidad se necesitan conectar un servidor DNS secundario al primario para recoger una nueva base de datos con authoritative.

OPEN DNS

OpenDNS es una empresa que ofrece el servicio de resolución de nombres de dominio (DNS) gratuito (para uso privado en el hogar) y abierto en su versión más básica y original. Fue fundada en noviembre de 2005 por David Ulevitch.

Más tarde añadió características opcionales gratuitas: corrección de errores ortográficos, filtrado de contenidos, protección contra phishing y robo de identidad, malware básico (Conficker y vulnerabilidades de Internet Explorer) configurables a través de un panel de control, previo registro en su sitio web. El servicio básico gratuito se financia a través de publicidad en las páginas de bloqueo de contenidos y en páginas de búsqueda generadas tras un intento de navegación fallido como resultado de la introducción de dominios inexistentes en la URL de la barra de navegación del navegador.

OpenDNS ofrece resolución de DNS gratuita a personas y empresas como una alternativa generalmente más rápida al servidor de DNS de su ISP. Sus 23 centros de datos localizados en distintos lugares del mundo (10 en América, 9 en Europa, 3 en Asia y 1 en Oceanía, generalmente centros neurálgicos de comunicaciones de internet) mantienen una gran caché de nombres de dominios que permiten que las consultas DNS sean muy rápidas, lo que a su vez acelera la velocidad de respuesta de los usuarios al navegar por la red.

En los últimos años OpenDNS se ha convertido además de en un proveedor global gratuito de resolución DNS, en un proveedor de servicios de seguridad de Internet en La Nube. Las características de seguridad incluyen un filtro de phishing y corrección de errores ortográficos (por ejemplo escribir wikipedia.or en vez de wikipedia.org). Al entrar en sitios clasificados como fraudulentos, OpenDNS bloquea el acceso a esos sitios, aunque esto se puede configurar en el panel de control.


En 2010, el servicio había crecido hasta llegar a resolver cerca del 1% de las consultas de toda la Internet.


Direccion ip

Una dirección IP es una etiqueta numérica que identifica, de manera lógica y jerárquica, a una interfaz (elemento de comunicación/conexión) de un dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo IP (Internet Protocol), que corresponde al nivel de red del Modelo OSI. Dicho número no se ha de confundir con la dirección MAC, que es un identificador de 48 bits para identificar de forma única la tarjeta de red y no depende del protocolo de conexión utilizado ni de la red. La dirección IP puede cambiar muy a menudo por cambios en la red o porque el dispositivo encargado dentro de la red de asignar las direcciones IP decida asignar otra IP (por ejemplo, con el protocolo DHCP). A esta forma de asignación de dirección IP se denomina también dirección IP dinámica (normalmente abreviado como IP dinámica).

Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados generalmente tienen una dirección IP fija (comúnmente, IP fija o IP estática). Esta no cambia con el tiempo. Los servidores de correo, DNS, FTP públicos y servidores de páginas web necesariamente deben contar con una dirección IP fija o estática, ya que de esta forma se permite su localización en la red.




Tipos de direcciones ip

Direcciones privadas


Existen ciertas direcciones en cada clase de dirección IP que no están asignadas y que se denominan direcciones privadas. Las direcciones privadas pueden ser utilizadas por los hosts que usan traducción de dirección de red (NAT) para conectarse a una red pública o por los hosts que no se conectan a Internet. En una misma red no pueden existir dos direcciones iguales, pero sí se pueden repetir en dos redes privadas que no tengan conexión entre sí o que se conecten mediante el protocolo NAT. Las direcciones privadas son:

Clase A: 10.0.0.0 a 10.255.255.255 (8 bits red, 24 bits hosts).
Clase B: 172.16.0.0 a 172.31.255.255 (16 bits red, 16 bits hosts). 16 redes clase B contiguas, uso en universidades y grandes compañías.
Clase C: 192.168.0.0 a 192.168.255.255 (24 bits red, 8 bits hosts). 256 redes clase C continuas, uso de compañías medias y pequeñas además de pequeños proveedores de internet (ISP).
Muchas aplicaciones requieren conectividad dentro de una sola red, y no necesitan conectividad externa. En las redes de gran tamaño a menudo se usa TCP/IP. Por ejemplo, los bancos pueden utilizar TCP/IP para conectar los cajeros automáticos que no se conectan a la red pública, de manera que las direcciones privadas son ideales para estas circunstancias. Las direcciones privadas también se pueden utilizar en una red en la que no hay suficientes direcciones públicas disponibles.


Las direcciones privadas se pueden utilizar junto con un servidor de traducción de direcciones de red (NAT) para suministrar conectividad a todos los hosts de una red que tiene relativamente pocas direcciones públicas disponibles. Según lo acordado, cualquier tráfico que posea una dirección destino dentro de uno de los intervalos de direcciones privadas no se enrutará a través de Internet.


Mascara de subred


La máscara permite distinguir los bits que identifican la red y los que identifican el host de una dirección IP. Dada la dirección de clase A 10.2.1.2 sabemos que pertenece a la red 10.0.0.0 y el host al que se refiere es el 2.1.2 dentro de la misma. La máscara se forma poniendo a 1 los bits que identifican la red y a 0 los bits que identifican el host. De esta forma una dirección de clase A tendrá como máscara 255.0.0.0, una de clase B 255.255.0.0 y una de clase C 255.255.255.0. Los dispositivos de red realizan un AND entre la dirección IP y la máscara para obtener la dirección de red a la que pertenece el host identificado por la dirección IP dada. Por ejemplo un router necesita saber cuál es la red a la que pertenece la dirección IP del datagrama destino para poder consultar la tabla de encaminamiento y poder enviar el datagrama por la interfaz de salida. Para esto se necesita tener cables directos. La máscara también puede ser representada de la siguiente forma 10.2.1.2/8 donde el /8 indica que los 8 bits más significativos de máscara están destinados a redes, es decir /8 = 255.0.0.0. Análogamente (/16 = 255.255.0.0) y (/24 = 255.255.255.0).


Creación de subredes

El espacio de direcciones de una red puede ser subdividido a su vez creando subredes autónomas separadas. Un ejemplo de uso es cuando necesitamos agrupar todos los empleados pertenecientes a un departamento de una empresa. En este caso crearíamos una subred que englobara las direcciones IP de éstos. Para conseguirlo hay que reservar bits del campo host para identificar la subred estableciendo a uno los bits de red-subred en la máscara. Por ejemplo la dirección 172.16.1.1 con máscara 255.255.255.0 nos indica que los dos primeros octetos identifican la red (por ser una dirección de clase B), el tercer octeto identifica la subred (a 1 los bits en la máscara) y el cuarto identifica el host (a 0 los bits correspondientes dentro de la máscara). Hay dos direcciones de cada subred que quedan reservadas: aquella que identifica la subred (campo host a 0) y la dirección para realizar broadcast en la subred (todos los bits del campo host en 1).


Ip dinámica

Una dirección IP dinámica es una IP asignada mediante un servidor DHCP (Dynamic Host Configuration Protocol) al usuario. La IP que se obtiene tiene una duración máxima determinada. El servidor DHCP provee parámetros de configuración específicos para cada cliente que desee participar en la red IP. Entre estos parámetros se encuentra la dirección IP del cliente.

DHCP apareció como protocolo estándar en octubre de 1993. El estándar RFC 2131 especifica la última definición de DHCP (marzo de 1997). DHCP sustituye al protocolo BOOTP, que es más antiguo. Debido a la compatibilidad retroactiva de DHCP, muy pocas redes continúan usando BOOTP puro.

Las IP dinámicas son las que actualmente ofrecen la mayoría de operadores. El servidor del servicio DHCP puede ser configurado para que renueve las direcciones asignadas cada tiempo determinado.


Ventajas
Reduce los costos de operación a los proveedores de servicios de Internet (ISP).
Reduce la cantidad de IP asignadas (de forma fija) inactivas.
El usuario puede reiniciar el router para que le sea asignada otra IP y así evitar las restricciones que muchas webs ponen a sus servicios gratuitos de descarga o visionado multimedia online.
Desventajas
Obliga a depender de servicios que redirigen un host a una IP.
Asignación de direcciones IP
Dependiendo de la implementación concreta, el servidor DHCP tiene tres métodos para asignar las direcciones IP:

manualmente, cuando el servidor tiene a su disposición una tabla que empareja direcciones MAC con direcciones IP, creada manualmente por el administrador de la red. Sólo clientes con una dirección MAC válida recibirán una dirección IP del servidor.
automáticamente, donde el servidor DHCP asigna por un tiempo preestablecido ya por el administrador una dirección IP libre, tomada de un intervalo prefijado también por el administrador, a cualquier cliente que solicite una.
dinámicamente, el único método que permite la reutilización de direcciones IP. El administrador de la red asigna un intervalo de direcciones IP para el DHCP y cada ordenador cliente de la LAN tiene su software de comunicación TCP/IP configurado para solicitar una dirección IP del servidor DHCP cuando su tarjeta de interfaz de red se inicie. El proceso es transparente para el usuario y tiene un periodo de validez limitado.

IP fija

Una dirección IP fija es una dirección IP asignada por el usuario de manera manual (Que en algunos casos el ISP o servidor de la red no lo permite), o por el servidor de la red (ISP en el caso de internet, router o switch en caso de LAN) con base en la Dirección MAC del cliente. Mucha gente confunde IP Fija con IP pública e IP dinámica con IP privada.

Una IP puede ser privada ya sea dinámica o fija como puede ser IP pública dinámica o fija.

Una IP pública se utiliza generalmente para montar servidores en internet y necesariamente se desea que la IP no cambie por eso siempre la IP pública se la configura de manera fija y no dinámica, aunque si se podría.

En el caso de la IP privada generalmente es dinámica asignada por un servidor DHCP, pero en algunos casos se configura IP privada fija para poder controlar el acceso a internet o a la red local, otorgando ciertos privilegios dependiendo del número de IP que tenemos, si esta cambiara (fuera dinámica) sería más complicado controlar estos privilegios (pero no imposible).