El Blog de Emulate

SEO y SEM con sentido común

IR en OJOBuscador 2.0

La edición 2007 del congreso OJOBuscador me ha dejado un buen sabor de boca.
No es que la edición del año pasado fuese peor, pero este año se ha profundizado mas en algunos campos en los que llevaba tiempo interesado como el IR (Information Retrieval).
También fue una alegría encontrarme con algunos de los asistentes del año pasado como Jose Antonio, los creadores de trabber así como el crack Ismael al que este año le dejaron su ponencia a medias…

La ponencia sobre detección de spam me pareció mas que interesante. El mecanismo que existe detras de los buscadores para la detección y lucha contra el web spam es de lo mas complejo. Diseñar un sistema que combata el spam es algo muy complicado, ya que continuamente los spammers están creando nuevas formas de spam. El spam no cesa, aunque los equipos destinados a mejorar la calidad de los resultados en buscadores tampoco cesan y crean herramientas que aprenden por si mismas y detectan mediante árboles de decisiones y distribuciones estadisticas obtenidas a partir de los diversos factores que afectan a los sitios web.

Es una lucha sin tregua, que cada día pone más difícil el trabajo a los SEO con ética profesional. Los buenos tiempos en donde optimizar una página y crear una buena estructura de enlaces te hacia saltar a las primeras posiciones de un buscador ya no sirven. Aun así cada día me gusta mas el trabajo de SEO, el cual se está transformando más en un trabajo de análisis y estudio profundo para luego ponerlo en práctica a cada proyecto SEO.

Otra de las ponencias que me entusiasmo fué la que ofreció Jose Ramón Pérez Agüera hablando sobre el software de IR para SEO´s. Esta fue una de las ponencias por las que me decidí a asistir al congreso. Creo que hubiera sido bueno dar media hora mas de ponencia, pero los horarios estaban muy ajustados. Esta ponencia me dejó muy claro por donde van los tiros en el presente y futuro del SEO.

Es más que necesario usar un software de analisis y simulación de un buscador. ¿Y para que necesitamos esto? Pues es más que evidente. Teniendo un software que simule un buscador podemos darnos cuenta de como rastrea un robot nuestro website, procesa nuestro contenido, aplica técnicas como el stemming y localiza los terminos importantes de nuestro website para rankearlos luego. Con toda esta información podemos mejorar nuestro ranking en base a los criterios que queramos posicionar, así como analizar los enlaces y la popularidad. Algunas de las aplicaciones que se mostraron fueron: lemur, xapian, terrier, lucene y nutch.

Podría extenderme mucho mas en este tema, pero eso es algo que podreis leer o ver en la web OJOBuscador cuando cuelguen las ponencias en video.

Gracias a Javier y Tomy por este fantástico congreso.

3 Comentarios a “IR en OJOBuscador 2.0”

  1. Marqueze Telecom Blog » Blog Archive » 8 y 9 de Marzo Congreso OJObuscador 2.0 Says:

    […] post 2), Carlos Blanco, CON .com.es (resumen día 1 y resumen día 2), Eloi Poch (post 1 y post 2), El blog de Emulate (sobre charla IR), Félix Moreno, Genbeta (habla sobre La Noche del Congreso), Gina Tonic […]

  2. promotingblogs.com Says:

    Recuperación de Información en OJOBuscador 2.0…

    Comentario sobre las ponencias de IR en el congreso OJOBuscador 2.0…

  3. demetzell Says:

    No pude asistir a la de Ética SEO, pero dejé mis comentarios en en mi blog. Estuve hablando con varios ponentes de esa mesa y esto es una referencia de lo que no se pudo decir.

Deja tu opinión


(no será publicado)


XHTML: Puedes usar las siguientes etiquetas: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <code> <em> <i> <strike> <strong> .


Los campos marcados con * son obligatorios