URL de trackback de esta historia http://atalaya.blogalia.com//trackbacks/36598
1 |
|
||
En realidad, Usenet, que precede el web, ya tenía una arquitectura P2P. |
2 |
|
||
Yo creo que aún tenemos que dar gracias. Entonces cada estación tenía un nombre y una dirección para acceder a ella, ahora con los cutre-ISP que tenemos... entre IPs dinámicas, NAT y otras hierbas, el resultado hubiera sido mucho peor... ¿un canal de televisión? O parecido. |
3 |
|
||
Hombre rvr, un P2P muy sui-géneris, con poca granularidad: los servidores pueden decidir qué grupos llevan y cuáles no llevan, pero poco más. Al final, los lectores se enganchan a servidores y no redistribuyen el contenido. |
4 |
|
||
Si, usenet era P2P, pero el acceso a la información no era bajo demanda (no había archivado), sino en plan push-pull.
|
5 |
|
||
P2P pero con servidores 'gordos' que eran los que meneaban casi toda la información. |
6 |
|
||
Con todo y con eso, no se almacenaba nada más que cierto tiempo. Y en realidad era una arquitectura mixta P2P-cliente/servidor, porque los clientes sólo podían enviar y recibir, no enrutar. Una arquitectura rara, vamos. De hecho, Usenet precedió a Internet. |
7 |
|
||
Si la web se hubiese descubierto más tarde, el modelo de redes P2P estaría muy más verde y no tendría la difusión que tiene ahora. En definitiva no nos habríamos dado cuenta de su potencia... ¿A quien se le habría ocurrido usar ese modelo para inventar Internet?
|
8 |
|
||
Bueno, hasta cierto punto, si... incluso ya Firefox incluye un "cliente" P2P, y no me extrañaría que, en el futuro próximo, tuviera su propio servidorcillo.
|
9 |
|
||
Bueno.... cerca!!! Eso es mucho decir. Por desgracia aquí el avance de estas tecnologías lo marcan los intereses de las empresas. No se si el XP tiene soporte directo y en condiciones para IPv6, creo que les ha dado bastantes problemas.
|
10 |
|
||
Gracias, bienvenido, y ya sabes donde estamos. |
11 |
|
||
JJ, el gopher no se parece a P2P, más bien es el predecesor casi inmediato de http, puesto que en gopher hay una máquina que sirve páginas que contienen enlaces a otras páginas.
|
12 |
|
||
No, no se parece, pero la forma de acceder a la información es casi la misma: por nombre de fichero y metadatos (escasos)
|
13 |
|
||
Los servisores son necesarios en la mula para buscar, si no estuviesen imagino que la búsqueda sería mucho más lenta ¿ no ? |
14 |
|
||
Servisor se ha equivocado ;) |
15 |
|
||
No estoy seguro, pero creo que actúan como proxy de los ordenadores que les pilla más cerca. Los servidores no indexan toda la red, lo que sería prácticamente imposible. |
16 |
|
||
Hasta donde yo se en e2k los servidores mantienen índices de los ficheros que tienen los clientes que se conectan a ellos, y estos servidores a su vez se conectan con otros servidores y les "pasan" las búsquedas de los clientes.
|
17 |
|
||
Por cierto, ese es justo el concepto de "servent" aplicado no solo al almacenamiento de ficheros sino también a las búsquedas. En lugar de tener un gran servidor (modelo e2k) que se encarga de realizar las búsquedas, tienes un monton de "servents" que hacen pequeñas búsquedas sobre sus índices y además pasan esas búsquedas a otros "servents". Imagino que hay optimizaciones sobre eso, pues cuando se encuentren servents que tengan el fichero en cuestión en su PC, será interesante dejar de buscar fuentes pues estos servents tendrán ya una lista de fuentes sobre ese fichero (otros servents que lo han solicitado o los que en su momento se lo dieron a él) y no será necesario aumentar la carga de la red buscando en todos los servents.
|
18 |
|
||
Algo más para pensar... que me emociono con estos temas. Una vez leí un artículo (no lo encuentro, lo siento) que analizaba Internet desde distintos puntos de vista. Uno de los principios que establecía era el de replicación. Casi cualquier cosa que cuelgues en Internet que revierta un mínimo interés tenderá a ser replicada en otros servidores y por tanto, aunque tu la borres, quedará siempre en la red. ¿No es eso un poco lo mismo? |
19 |
|
||
Si, un poco. Eso ocurre en los sistemas P2P, pero no ocurre en la web. Otra razón por la cual habría sido interesante que el modelo en el que se basara la web fuera una red P2P, y no el gopher. |
20 |
|
||
por mi parte agradezco por esta pagina por denos a conocer la histori de la PC |
Esta es la bitácora o blog de Juan Julián Merelo. Si quieres contactar con el autor, usa su correo electrónico jjmerelo (arroba) gmail.com, o simplemente deja un comentario. Y si quieres leer alguna cosa más de las que escribe, prueba esta novela