Un estudio de la Universidad Carlos III, ha dado una serie de datos preocupantes: más del 80% de las páginas webs de la Administración Pública, no se dan cuenta de la importancia de algunos de los elementos de programación más comunes, para lograr localizar e “indexar”, de forma correcta, los contenidos que poseen.
Después de localizar este estudio, los expertos de la Universidad han aconsejado a los responsables de creación y desarrollo de las webs de la Administración de ámbito público que ponen que los internautas, que las personas que buscan información en Internet, que encuentren de forma clara y sin problemas donde dirigirse para poder llevar a cabo las gestiones online. Se sospecha que le dedican muy poca atención al campo de la optimización en los buscadores de Internet. Todo esto se ha logrado a travñes de un estudio que han realizado, en conjunto, el grupo de Tecnologías Aplicadas a la Información y la Documentación (TECNODOC) de la prestigiosa Universidad Carlos III. Este estudio buscaba analizar los ficheros robots de las distintas páginas, los ficheros tipo robots.txt y sitemaps.xml.
Este tipo de ficheros son lo que se suelen emplear para lograr la optimización, en el apartado de la localización, en los motores de búsqueda, y se ha estudiado más de 4,000 webs, que forman parte de la Administración Pública española. En la mayoría de casos -un 80%- no hay ningún interés en que los principales buscadores – Google, Yahoo, Bing...-, localicen de forma correcta dichas páginas. Sólo un 17% de las webs introducen ficheros de tipo robos.txt, en sus sistemas.
Después de localizar este estudio, los expertos de la Universidad han aconsejado a los responsables de creación y desarrollo de las webs de la Administración de ámbito público que ponen que los internautas, que las personas que buscan información en Internet, que encuentren de forma clara y sin problemas donde dirigirse para poder llevar a cabo las gestiones online. Se sospecha que le dedican muy poca atención al campo de la optimización en los buscadores de Internet. Todo esto se ha logrado a travñes de un estudio que han realizado, en conjunto, el grupo de Tecnologías Aplicadas a la Información y la Documentación (TECNODOC) de la prestigiosa Universidad Carlos III. Este estudio buscaba analizar los ficheros robots de las distintas páginas, los ficheros tipo robots.txt y sitemaps.xml.
Este tipo de ficheros son lo que se suelen emplear para lograr la optimización, en el apartado de la localización, en los motores de búsqueda, y se ha estudiado más de 4,000 webs, que forman parte de la Administración Pública española. En la mayoría de casos -un 80%- no hay ningún interés en que los principales buscadores – Google, Yahoo, Bing...-, localicen de forma correcta dichas páginas. Sólo un 17% de las webs introducen ficheros de tipo robos.txt, en sus sistemas.
No hay comentarios:
Publicar un comentario