Atalaya: desde la tela de araña

Cultura en la red, reflexiones, relatos, tutoriales y paridas diversas

¿No sería mejor un ping antes que los sitemap de Google?Sitemap de google, bueno, ¡sucks!

2005-06-08 09:26 Ya dije que no me hacían mucha gracia, aunque a Dirson no le parece mal del todo; por otro lado, es fácil de implementar: Microsiervos nos ofrece una plantilla para MovableType.
Ahora tengo una razón más para decirlo: ha hecho que esta predicción mía del año pasado no se cumpla. Ahí decía:
¿Cuánto tardará Google en indexar RSS y permitir pings? Posiblemente muy poco.
Y Jeremy Zawodny dice lo mismo: si Google quiere mejorar la cobertura, ¿porqué no permite pings?. Un ping consiste en enviar un mensaje con el nuevo URL creado. La mayoría de los sistemas de gestión de contenidos, incluso esta misma blogalia, ya lo hace. Para otros sitios, es fácil de implementar, o incluso se puede hacer a mano. Anil Dash, en So you'd like to map your site, irónicamente, dice:
And hey, there might even be formats for describing a feed of a site's content and when it gets updated.
En resumen, lo dicho. Que no mola nada.
Actualización: para que no se me queje la parroquia, he cambiado el titular. Sin borrar el anterior.

Referencias (TrackBacks)

URL de trackback de esta historia http://atalaya.blogalia.com//trackbacks/30554

1
De: El Blog de Enrique Dans Fecha: 2005-06-08 11:30

Google quiere ser más rápido: «Entiendo perfectamente el punto de vista crítico de JJ, pero creo que el hoy inmarcesible poder de Google hará que los webmasters indexen lo que haya que indexar, den de alta lo que haya que dar de alta, e incorporen en su trabajo la rutina de alimen»



Comentarios

1
De: fernand0 Fecha: 2005-06-08 10:10

Si que tienes razón. Es raro andar con sintaxis raras y estáticas cuando esa misma información la podrías hacer con un ping. Aunque no quiero pensar el DDoS que se les podría montar enviando pings... Seguramente para ellos no es una buena solución.



2
De: JJ Fecha: 2005-06-08 10:16

Bueno, no creo que el DDoS fuera mayor que el de 100 millones de personas buscando a la vez.



3
De: Alvy Fecha: 2005-06-08 11:22

La obcecación del sucks. Voy a empezar a pensar que son ganas de llamar la atención...

Un sitemap es un mapa, y los pings son avisos. Velocidad y Tocino. Si soy un usuario y tengo un blog que tiene 2.000 páginas puedo hacer un mapa, de hecho lo hice para el mío en cinco minutos.

Si hubieran inventado o adaptado un sistema de pings (que ya lo inventarán) sería una guerra totalmente distinta, tal vez fuera fácil y bastara con activar los pings en los CMSs, pero entonces los pings empezarían a enviarse a partir del "siguiente post" que escribieras... En el ejemplo anterior yo no podría hacer pings de los 2.000 posts anteriores - y por supuesto ni le estoy dando el mapa a google ni diciéndole cuáles de esas páginas son más importantes o menos, en un ping no va esa información (hasta donde yo sé).

Google lleva meses por no decir años indexando los RSS y cualquier XML que pilla la araña, todo eso intensivamente, por lo menos desde la compra de Blogger.

Millones de pings a Google con la plataforma que tiene serían una mera brisa, nada parecido a un DDoS. Si weblogs.com lo aguanta, no te digo la granja de servidores de Google. Ni se entera.

Zawodny no dice nada nuevo, algún día se podrá hacer pings a Google. Y lo que dice Anil anda tiene que ver, se queja porque anteriormente había otros estándares de sitemaps, eso ya sabemos cómo va, cada cual inventa el suyo y al final sólo el mejor sobrevive.



4
De: JJ Fecha: 2005-06-08 11:35

No he dicho que no sean cosas diferentes. Lo que quiero decir es que resultaría más fácil, de hecho, trivial, implementar un ping a google, y sería mucho más beneficioso para los webmasters que lo que se hace ahora, que se supone que mejorará la cobertura (¿está Google reconociendo que no indexa los sitios completos?) o la frecuencia de actualización (aunque Google no promete que vaya a indexar con la frecuencia que se solicite).
De acuerdo que "ya lo inventarán", pero _mi opinión_ es que sería mucho más interesante que hubieran implementado esto que aquello.



5
De: Alvy Fecha: 2005-06-08 12:14

Bueno, ciertamente eso es... lo que tú opinas. En los planes de Google _parece_ que lo más importante es el Mapa completo de toda la Web y luego los pings (a los hechos me remito).

No entiendo pues por qué el "Sitemap sucks", que es el impactante titular. Es como si dices que como podrían hacer algo más interesante que tu opinas, como... regalar jamones, por eso "sitemaps sucks!", toma argumento.

No has explicado cómo con los pings aprovechas o sirven para algo los 2000+ posts antiguos que tengas en un site ya publicado, no te vas a poner a pinguear desde "el pasado", ¿no?
Es obvio que Google no indexa sitios completos porque a veces es casi imposible, y los mapas de sitemap ayudarán a mejorar eso, por eso son útiles.



6
De: JJ Fecha: 2005-06-08 12:20

Bueno, titular es todo un arte, y no creo que lo domine. "Preferiría un ping antes que el sitemap" se ajusta más al espíritu del post, pero no tiene la misma garra. Como argumento, evidentemente, es débil, por no decir inexistente, pero no hay que dejar que una noticia te estropee un buen titular.
Si google necesita que los webmasters le ayuden para sacar el mapa completo de la web, pues me parece una buena idea, aparte de que la implementación es discutible (por ejemplo, ¿qué pasa si un sitio maneja varios dominios, como blogalia?). Los pings, efectivamente, no sirven para los posts antiguos; pero eso se supone que lo tendría que tener ya Google, ¿no? Al menos si están enlazados. El sitemap, si puede servir para algo, es para que google indexe partes del sitio que antes no estaban enlazadas desde el resto; o, como dije en mi anterior post, en plan negativo, para que deje de bajarse páginas que no se van a actualizar de ninguna de las maneras. En ese sentido, lo que vengo a decir es que sitemap.xml es más beneficioso para Google que para los webmasters, que, si acaso, van a encontrarse alguna página no enlazada indexada sin tener que darla de alta de forma independiente.
Que vale, que no es "google sitemaps suck". ¡Pero dame cierta "latitud" a la hora de hacer un titular, caray, que esto no es El Pais!



7
De: JJ Fecha: 2005-06-08 12:31

Hala, ya he cambiado el título. No te quejarás...



8
De: Alvy Fecha: 2005-06-08 12:39

Mucho mejor ese titular.

Creo que en la documentación se explica que el mapa de dominios es de primer nivel xyz.com así que podríais hacer fácilmente uno para todo blogalia incluso con subdominios... PERO como es un servicio de hosting compartido, lo lógico sería que cada usuario se pudiera crear su sitemap si quiere y sólo si quiere (como el RSS), eso debería ser casi trivial implementarlo.

No supongas que Google tiene nada "obligatoriamente" o por antiguedad. A lo mejor tenía todo el mapa de blogalia, pero si blogalia se pasó 404 una semana entera lo borraron todo del índice... O a lo mejor los usuarios emplean enlaces a href javascript, o Flash, y ahí no puede llegar el robot, o tienen páginas de más de 100 enlaces o 100 KB que (según la leyenda) Google no lee (hace tiempo que parece que ya sí). Esas y otras son razones por las que un sitemap es estupendo, para ayudar al robot con un buen mapa.
Sobre lo del titular, pues bueno, a mi me parece más apropiado el nuevo. Cada cual titula como quiere, pero debido a que SUCKS suele considerarse un «insulto» creo que si usas esa palabra sin más argumentos, podría suceder que los lectores te exijan más "rigor" y/o argumentos para el uso del SUCK. Por no hablar de lo que pueden opinar los «mencionados» (ingenieros de Google en este caso) si lo leyeran.



9
De: SegFault Fecha: 2005-06-08 12:41

A mi lo que me pasa por la cabeza es: no me apetece instalar un módulo más en calidad alfa/beta para que mi CMS genere el fichero, o simplemente no existe. ¿Dejará de indexar todo el sitio? ¿aparecerá menos? ¿perderá puestos en las búsquedas?

Si la respuesta es que aunque no use el sitemap.xml.gz todo queda igual ¿porqué debo molestarme?

Si la posición y los resultados se ven influidos por los sitios que tengan sitemap.xml.gz ¿no será romper un poco el algoritmo? Si CNN o blogalia no lo tienen ¿qué pasará? Eso de decirle a los webmasters que le digan a los buscadores qué tienen y cuánto tienen ¿no es un poco "dejad que los SEO se acerquen a mi"? (¿se siguen usando los meta tags como content o description?)

--
SegFault



10
De: JJ Fecha: 2005-06-08 12:43

¿Seguro? A mi me dio la impresión de que sólo se admitía un host por sitemap. Si es así, será mucho más fácil.
No sabía lo del límite 100/100. Lo de los "otros enlaces" sí. Tienes razón, puede ser útil por ahí.
Y en cuanto a lo de "suck", es cierto que puede ser un poco fuerte. Aunque dudo mucho que Google se pase por aquí, en forma de "ojos", me refiero, a leerlo. Pero bueno, quién sabe... En cuanto a los lectores, bueno, lo exiges tú, y aquí lo que dice la parroquia va a misa ;-)



11
De: Alvy Fecha: 2005-06-08 13:00

#9 no olvides que de momento es solo un experimento a ver cómo va la cosa. No hay nada oficial todavía. Pero es como si se vuelve oficial igual que los TITLE y METAs son oficiales, y algunos los usan y otros no, pues mejor para unos y peor para otros... Desde luego a día de hoy, usarlo o no usarlo no marca ninguna diferencia.

#10 lo del 100/100 entra en el terreno de la leyenda, pero hace meses dijeron que ya estaba arreglado, pero es un ejemplo de cientos de razones por las que Google puede no mapear completo y bien un sitio.



12
De: SegFault Fecha: 2005-06-08 13:21

En las especificaciones no dice nada referente a incluir subdominios. De hecho, la posición del fichero sitemap marca qué pueda señalarse en función del directorio dentro de un sitio.

Note: A Sitemap index file can only specify Sitemaps that are found on the same site as the Sitemap index file. For example, http://www.yoursite.com/sitemap_index.xml can include Sitemaps on http://www.yoursite.com but not on http://www.mysite.com or http://yourhost.yoursite.com.

Es decir, que el sitemap.xml de http://blogalia.com/ no podría especificar nada de http://atalaya.blogalia.com/

Personalmente creo que el problema que tiene es que mucho del contenido es generado dinámicamente, no sólo ya el contenido sino las direcciones y quizás los sitemap requieren un esfuerzo extra para muchos CMS... ya veremos como va todo. Supongo que los CMS más populares (WordPress y Drupal ya tienen módulos) lo adaptarán rápido y estará ahí funcionando.

Por un lado puede ser bueno tener un mapa del sitio, pero me temo que el mapa podría haber sido algo más complejo, es tan sólo una lista de URLs que podría igualmente haberse implementado con CSV con el mismo resultado :), si hubiesen (ab)usado más el XML quizás podrían haber conseguido cosas más interesantes. Ya veremos.

--
SegFault



13
De: rvr Fecha: 2005-06-08 14:17

Aunque aparentemente me parece mejor el ping que el mapa, hay que reconocer que el ping -si lo gestiona Google sin changes.xml- tiene menos utilidad para terceros. El mapa estará disponible para cualquiera, incluidos los robotejos de la competencia. No me parece una idea tan mala.



14
De: JJ Fecha: 2005-06-08 14:22

Um, eso es verdad. Aunque bueno, en realidad estaría disponible, como lo está, para todo el mundo que acepte pings. Supongo que al final, se crearían "pingómetros" que hicieran ping a una serie de buscadores simultáneamente.



15
De: rvr Fecha: 2005-06-08 16:17

Hablando de sucks. Enrique Dans enlaza al suckómetro de los sistemas operativos.



16
De: hmmm Fecha: 2005-06-08 23:51

te acabo de pasar un meme ! :-)



17
De: LOS HINOJOSOS Fecha: 2009-05-28 09:27

Punto de encuentro para opinar, entretener e informar



Nombre
Correo-e
URL
Dirección IP: 54.197.150.255 (8b4cd48190)
Comentario

Se comenta en...

  • JJ en [Libro #3] A Christmas Carol, de Charles Dickens
  • PABLO PASCUAL LÓPEZ en [Libro #3] A Christmas Carol, de Charles Dickens
  • tpeliculas en [Libro #31] Crimen contra reloj, de Frank Launder y Sidney Gilliat
  • JJ en [Libro #29] El guardián invisible, de Dolores Redondo
  • Anónima en [Libro #29] El guardián invisible, de Dolores Redondo
  • JJ en [Libro #29] El guardián invisible, de Dolores Redondo
  • tripu en [Libro #29] El guardián invisible, de Dolores Redondo
  • fernand0 en [Libro #29] El guardián invisible, de Dolores Redondo
  • josemaria en [Libro #29] El guardián invisible, de Dolores Redondo
  • armando en Las olas van y vienen
  • Sobre Atalaya

    Esta es la bitácora o blog de Juan Julián Merelo. Si quieres contactar con el autor, usa su correo electrónico jjmerelo (arroba) gmail.com, o simplemente deja un comentario. Y si quieres leer alguna cosa más de las que escribe, prueba esta novela

    Listas de deseos

    A veces leo

    Otras veces escribo en

    Blogalia Blogalia