Webmasters

¿Qué pasa con Google?
Los usuarios de a pie siguen siendo fieles al mayor denómeno de Internet de los últimos tres años, que ha sido la irrupción del buscador Google como fuente de enlaces hacia todo tipo de páginas web. Nadie duda de la absoluta preponderancia de Google que, según diversas mediciones, sirve el 75 por ciento de las búsquedas a los internautas españoles.

Sin embargo, profesionales y webmasters aficionados, están viendo cómo en Google están pasando cosas raras e incluso algunos internautas perspicaces ya han advertido cierta pérdida de calidad en los resultados de sus búsquedas. El hecho tiene tres vertientes:
a) en las búsquedas sobre temas no comerciales, las búsquedas suelen dar resultados excelentes aunque esporádicamente aparezcan resultados espúreos normalmente ligados a webs pornográficas, que son las que más lejos han llegado en las tácticas de spam web.
b) las búsquedas sobre temas en los que hay dinero de por medio (sexo, artículos electrónicos, música, productos médicos, etc.) Google ha sido desbordado por los artistas que, valiéndose de su conocimiento de los mecanismos internos del buscador han sabido montar verdaderas redes de páginas en las que cualquier internauta acaba cayendo sean cuales sean los términos utilizados para hacer la búsqueda
c) los webmasters ven con desesperación cómo sus nuevas webs son añadidas, cómo su PageRank sube y baja a diario o es sustituido por un preocupante cero, cómo los nuevos links obtenidos mediante un duro trabajo de marketing no son añadidos, etc.

Para explicar esto hay varias teorías:
a) la teoría de la saturación incide en que la programación básica de Google está hecha en Linux y sobre la base de un catálogo de webs de cuatro bytes, es decir, desde 000.000.000.000 hasta 255.255.255.255 lo que se traduce en que teóricamente tendría capacidad para indexar un máximo de 4.294.967.296 de documentos; como ellos mismos presumen en su portada de tener más de tras mil millones de documentos indexados, más las imágines, más los grupos más ni se sabe qué cosas, habrían llegado a ese límite y se estarían produciendo simples errores de cálculo matemático mietras sus ingenieros trabajan en resolver el problema
b) la teoría del proveedor se basa en la quiebra del principal proveeedor de conexión de Google Inc, que hasta la fecha era Cable&Wireless Inc.; siendo Google, como es, una enorme red de cientos de ordenadores dispersa entre varios centros resolver todos los problemas de conectividad y actualizar correctamente sus bases de datos les ha llevado más de dos meses y eso explica los retrasos en las actualizaciones y la mezcla de resultados antiguos con nuevos
c) la teoría de la soberbia se centra en el hecho de que en Google son conscientes de su absoluto dominio del mercado y sus mejores ingenieros y ejecutivos andan jugando en sus nuevos experimentos ajenos a la búsqueda (http://labs.google.com) relegando al buscador
c) la teoría del algoritmo explica que lo que están haciendo en Google son sólo pruebas para implementar un nuevo algoritmo que ayude a conseguir mejores resultados de búsqueda y elimine las webs fraudulentas (el spam web).

Es posible que todas estas teorías tengan algo de cierto (o no) pero lo que es indudable es que en Google, por dentro, pasa algo y aunque ahora parece que empieza a salir del bache son todavía muchos los webmasters que se quejan de lo mal paradas que han salido sus webs y de cómo han sido superadas por webs sin contenido hechas expresamente para captar tráfico de este buscador.

Más artículos
Mejorar PageRank Google
Hosting gratis
Gifs animados
Hojas estilo
Poromocionar páginas web
Problemas Google
Velocidad descargas web
Salir en los buscadores
Altas en buscadores
Alta en buscadores
Optimizar páginas buscadores
Trucos buscadores