El Blog de Emulate

SEO y SEM con sentido común

Archivo para la Categoria ‘seo’

IR en OJOBuscador 2.0

Lunes, Marzo 12th, 2007

La edición 2007 del congreso OJOBuscador me ha dejado un buen sabor de boca.
No es que la edición del año pasado fuese peor, pero este año se ha profundizado mas en algunos campos en los que llevaba tiempo interesado como el IR (Information Retrieval).
También fue una alegría encontrarme con algunos de los asistentes del año pasado como Jose Antonio, los creadores de trabber así como el crack Ismael al que este año le dejaron su ponencia a medias…

La ponencia sobre detección de spam me pareció mas que interesante. El mecanismo que existe detras de los buscadores para la detección y lucha contra el web spam es de lo mas complejo. Diseñar un sistema que combata el spam es algo muy complicado, ya que continuamente los spammers están creando nuevas formas de spam. El spam no cesa, aunque los equipos destinados a mejorar la calidad de los resultados en buscadores tampoco cesan y crean herramientas que aprenden por si mismas y detectan mediante árboles de decisiones y distribuciones estadisticas obtenidas a partir de los diversos factores que afectan a los sitios web.

Es una lucha sin tregua, que cada día pone más difícil el trabajo a los SEO con ética profesional. Los buenos tiempos en donde optimizar una página y crear una buena estructura de enlaces te hacia saltar a las primeras posiciones de un buscador ya no sirven. Aun así cada día me gusta mas el trabajo de SEO, el cual se está transformando más en un trabajo de análisis y estudio profundo para luego ponerlo en práctica a cada proyecto SEO.

Otra de las ponencias que me entusiasmo fué la que ofreció Jose Ramón Pérez Agüera hablando sobre el software de IR para SEO´s. Esta fue una de las ponencias por las que me decidí a asistir al congreso. Creo que hubiera sido bueno dar media hora mas de ponencia, pero los horarios estaban muy ajustados. Esta ponencia me dejó muy claro por donde van los tiros en el presente y futuro del SEO.

Es más que necesario usar un software de analisis y simulación de un buscador. ¿Y para que necesitamos esto? Pues es más que evidente. Teniendo un software que simule un buscador podemos darnos cuenta de como rastrea un robot nuestro website, procesa nuestro contenido, aplica técnicas como el stemming y localiza los terminos importantes de nuestro website para rankearlos luego. Con toda esta información podemos mejorar nuestro ranking en base a los criterios que queramos posicionar, así como analizar los enlaces y la popularidad. Algunas de las aplicaciones que se mostraron fueron: lemur, xapian, terrier, lucene y nutch.

Podría extenderme mucho mas en este tema, pero eso es algo que podreis leer o ver en la web OJOBuscador cuando cuelguen las ponencias en video.

Gracias a Javier y Tomy por este fantástico congreso.