Atalaya: desde la tela de araña

Cultura en la red, reflexiones, relatos, tutoriales y paridas diversas

¿Qué pasaría si la web se hubiera "descubierto" más tarde?

2006-01-16 14:31 Me explico. La web se inventó a principios de los 90, donde las grandes instalaciones, y el CERN en especial, eran el coto de los grandes ordenadores con arquitecturas cliente-servidor; un "servidor" que es el que tiene los datos, controlado por un "administrador", y a partir de ahí, una serie de "clientes" tontorrones que lo que hacen es presentar los datos. La idea era un poco poner en cada ordenador un modelo similar al que había con los grandes mainframes VAX e IBM: un gordo que calcula, unos delgados que son los que sirven para meter y sacar datos.
Sin embargo, un modelo mucho mejor para la web habrían sido las redes P2P, donde no existen "clientes" ni "servidores". Existen cliendores o servientes, que tienen datos y los comparten.
La cuestión es que, a estas alturas de la películas, las redes P2P tengan el mismo modelo de acceso a la información que el Gopher y los servidores web sigan siendo servidores web. Y no sé si será consecuencia del zeitgeist imperante en aquella época.
Es que no se pueden inventar las cosas con bulla. Hay que tener paciencia. Que luego pasa lo que pasa.

Referencias (TrackBacks)

URL de trackback de esta historia http://atalaya.blogalia.com//trackbacks/36598

Comentarios

1
De: rvr Fecha: 2006-01-16 14:52

En realidad, Usenet, que precede el web, ya tenía una arquitectura P2P.



2
De: Juanjo Fecha: 2006-01-16 15:05

Yo creo que aún tenemos que dar gracias. Entonces cada estación tenía un nombre y una dirección para acceder a ella, ahora con los cutre-ISP que tenemos... entre IPs dinámicas, NAT y otras hierbas, el resultado hubiera sido mucho peor... ¿un canal de televisión? O parecido.



3
De: fernand0 Fecha: 2006-01-16 16:33

Hombre rvr, un P2P muy sui-géneris, con poca granularidad: los servidores pueden decidir qué grupos llevan y cuáles no llevan, pero poco más. Al final, los lectores se enganchan a servidores y no redistribuyen el contenido.



4
De: JJ Fecha: 2006-01-16 17:38

Si, usenet era P2P, pero el acceso a la información no era bajo demanda (no había archivado), sino en plan push-pull.
Juanjo: incluso con IP dinámicas, los sistemas P2P funcionan... el URL, en principio, identifica recursos, no direcciones fijas. Yo creo que algo podría pensarse.



5
De: fernand0 Fecha: 2006-01-16 17:46

P2P pero con servidores 'gordos' que eran los que meneaban casi toda la información.



6
De: JJ Fecha: 2006-01-16 17:52

Con todo y con eso, no se almacenaba nada más que cierto tiempo. Y en realidad era una arquitectura mixta P2P-cliente/servidor, porque los clientes sólo podían enviar y recibir, no enrutar. Una arquitectura rara, vamos. De hecho, Usenet precedió a Internet.



7
De: rms Fecha: 2006-01-16 23:54

Si la web se hubiese descubierto más tarde, el modelo de redes P2P estaría muy más verde y no tendría la difusión que tiene ahora. En definitiva no nos habríamos dado cuenta de su potencia... ¿A quien se le habría ocurrido usar ese modelo para inventar Internet?
Por otro me da la sensación de que Internet tiende a eso mismo: eliminar las diferencias entre clientes y servidores. Al menos en el sentido clásico de servidores, máquinas potentísimas que ahorran trabajo a las otras.
Ya nos hemos dado cuenta de que ese modelo no es práctico. Cada vez más gente monta servidores FTP y servidores web en sus ordenadores personales, el protocolo ipv6 pondrá las cosas más fáciles en este sentido.
Una vez se derriba la fontera que impide a cualquiera ser servidor (la frontera no era parte del modelo sino quizás una cuestión más relacionada con la calidad de las conexiones, el coste del hardware, etc) no hay mucha distancia al modelo P2P puro y duro no?
Puede ser difícil imaginarlo (o no), están los problemas de la actualización rápida de la información, y de su generación dinámica... algo que (que yo sepa) no cabe (todavía) en el modelo P2P. Pero si cualquiera tiene la capacidad real (técnica) para actuar como servidor, quizás solo falte crear un par de protocolos nuevos.



8
De: JJ Fecha: 2006-01-17 08:46

Bueno, hasta cierto punto, si... incluso ya Firefox incluye un "cliente" P2P, y no me extrañaría que, en el futuro próximo, tuviera su propio servidorcillo.
En cuanto al protocolo IPv6, ¿tú lo ves cerca?



9
De: rms Fecha: 2006-01-17 13:27

Bueno.... cerca!!! Eso es mucho decir. Por desgracia aquí el avance de estas tecnologías lo marcan los intereses de las empresas. No se si el XP tiene soporte directo y en condiciones para IPv6, creo que les ha dado bastantes problemas.
El caso es que cuando a las grandes compañías de software les interese que compres su nueva versión y no sepan que hacer para ello, las adaptarán a ipv6 y presionarán a los ISP para que se actualicen... así ya tendrán algo que vendernos (unos y otros), por que gratis no nos dan nada...
Por cierto, enhorabuena por Atalaya. Un honor comentar aquí, nunca me había atrevido y aún ahora no pongo más que las iniciales de un gurú que evidentemente no soy yo ;)



10
De: JJ Fecha: 2006-01-17 13:30

Gracias, bienvenido, y ya sabes donde estamos.



11
De: cua Fecha: 2006-01-17 18:56

JJ, el gopher no se parece a P2P, más bien es el predecesor casi inmediato de http, puesto que en gopher hay una máquina que sirve páginas que contienen enlaces a otras páginas.

Por otro lado, en las redes P2P hay "servidores" (de hecho en la mula se llaman así) que tienen los índices con los ordenadores hay conectados y las cosas que tienen. En realidad en P2P hay una mayor dependencia de eso servidores centrales que en http, en el cual cualquiera puede descargar y ejecutar apache en su casa, por ejemplo.



12
De: JJ Fecha: 2006-01-17 19:21

No, no se parece, pero la forma de acceder a la información es casi la misma: por nombre de fichero y metadatos (escasos)
Y en cuanto a esos servidores, efectivamente existen, pero en realidad, no son necesarios, sólo hacen más eficiente el comenzar y resuelven el problema del bootstrap (a qué conectarse primero).



13
De: cua Fecha: 2006-01-17 20:25

Los servisores son necesarios en la mula para buscar, si no estuviesen imagino que la búsqueda sería mucho más lenta ¿ no ?



14
De: cua Fecha: 2006-01-17 20:26

Servisor se ha equivocado ;)



15
De: JJ Fecha: 2006-01-17 20:28

No estoy seguro, pero creo que actúan como proxy de los ordenadores que les pilla más cerca. Los servidores no indexan toda la red, lo que sería prácticamente imposible.



16
De: rms Fecha: 2006-01-18 12:55

Hasta donde yo se en e2k los servidores mantienen índices de los ficheros que tienen los clientes que se conectan a ellos, y estos servidores a su vez se conectan con otros servidores y les "pasan" las búsquedas de los clientes.

Una vez que has encontrado a alguien con el fichero (aunque sea uno) puedes desconectarte del servidor, por que ese uno te pasará las fuentes que ha encontrado el y así sucesivamente.

La opción alternativa es obtener una lista de clientes y pasarles la búsqueda a ellos (y naturalmente responder a las búsquedas que te pasen otros clientes), guardando una caché con los datos que ya conoces.

No estoy muy seguro pero creo que así es más o menos como funciona Kad. En Kad no hace falta un servidor por que las búsquedas se pasan directamente a clientes. Lo único que hace falta es tener una buena lista de clientes para que alguno esté conectado y ya apartir de ese ir actualizando tu lista de clientes.

Corregidme si me equivoco :)



17
De: rms Fecha: 2006-01-18 13:02

Por cierto, ese es justo el concepto de "servent" aplicado no solo al almacenamiento de ficheros sino también a las búsquedas. En lugar de tener un gran servidor (modelo e2k) que se encarga de realizar las búsquedas, tienes un monton de "servents" que hacen pequeñas búsquedas sobre sus índices y además pasan esas búsquedas a otros "servents". Imagino que hay optimizaciones sobre eso, pues cuando se encuentren servents que tengan el fichero en cuestión en su PC, será interesante dejar de buscar fuentes pues estos servents tendrán ya una lista de fuentes sobre ese fichero (otros servents que lo han solicitado o los que en su momento se lo dieron a él) y no será necesario aumentar la carga de la red buscando en todos los servents.

De todos modos relacionad esto con Web2.0... creo que el concepto de Web 2.0 no es compatible con una Internet más "p2peificada", ya que la idea es que los contenidos sean cada vez más dinámicos y la interactuación cliente-servidor más fuerte. Y eso es incompatible con el modelo p2p, en el que de un mismo fichero existen muchas copias y no hay posibilidad de generación dinámica.

¿A alguien se le ocurren soluciones a ese problema?



18
De: rms Fecha: 2006-01-18 13:07

Algo más para pensar... que me emociono con estos temas. Una vez leí un artículo (no lo encuentro, lo siento) que analizaba Internet desde distintos puntos de vista. Uno de los principios que establecía era el de replicación. Casi cualquier cosa que cuelgues en Internet que revierta un mínimo interés tenderá a ser replicada en otros servidores y por tanto, aunque tu la borres, quedará siempre en la red. ¿No es eso un poco lo mismo?



19
De: JJ Fecha: 2006-12-16 12:23

Si, un poco. Eso ocurre en los sistemas P2P, pero no ocurre en la web. Otra razón por la cual habría sido interesante que el modelo en el que se basara la web fuera una red P2P, y no el gopher.



20
De: jacobo diaz alvaro Fecha: 2007-08-29 23:39

por mi parte agradezco por esta pagina por denos a conocer la histori de la PC



Nombre
Correo-e
URL
Dirección IP: 54.162.111.247 (3db48c8553)
Comentario

Se comenta en...

  • Sofia Lopez en [Libro #13] The plot against America, de Philip Roth
  • Depilación casera en [libro #15] Europe in Autumn, de Dave Hutchinson
  • Jabones Artesanales en [libro #14] Bad Monkey, de Carl Hiaasen
  • JJ en [Libro #10] The son, de Jo Nesbo
  • Anónima en [Libro #11] Prisoners of Geography, de Tim Marshall
  • JJ en [Libro #3] A Christmas Carol, de Charles Dickens
  • PABLO PASCUAL LÓPEZ en [Libro #3] A Christmas Carol, de Charles Dickens
  • JJ en [Libro #29] El guardián invisible, de Dolores Redondo
  • Anónima en [Libro #29] El guardián invisible, de Dolores Redondo
  • JJ en [Libro #29] El guardián invisible, de Dolores Redondo
  • Sobre Atalaya

    Esta es la bitácora o blog de Juan Julián Merelo. Si quieres contactar con el autor, usa su correo electrónico jjmerelo (arroba) gmail.com, o simplemente deja un comentario. Y si quieres leer alguna cosa más de las que escribe, prueba esta novela

    Listas de deseos

    A veces leo

    Otras veces escribo en

    Blogalia Blogalia