Posicionamiento en Internet Universidad de Castilla la Mancha Albacete,  8 de marzo de 2007
1. Introducción Las Cifras de Internet Páginas en Internet: > 11.000 millones de páginas [1] . Número de Host .es: Enero 2007, 2,9 millones. Posición 18.  (Internet Systems Consortium ISC). 433 millones a nivel mundial [1] Gulli, A. and Signorini, A. 2005. The indexable web is more than 11.5 billion pages. In Special interest Tracks and Posters of the 14 th  international Conference on World Wide Web (Chiba, Japan, May 10 - 14, 2005). WWW '05.
Las Cifras de Internet El 8,1% de la población que accede a Internet es hispanohablante(47,2 millones de usuarios) Sólo el 3,1% de las páginas en Internet están en Español frente al 60,4% que están en Ingles. Los usuarios de Google han aumentado un 65% mientras que los usuarios de Internet han aumentado un 26%. 1. Introducción
Oportunidades Eliminación las barreras geográficas Reducción de costes Nuevos modelos de negocio Riesgos Invisibilidad: Todo contenido no accesible por los buscadores Siempre aparecerá algún sitio web que cubra los nichos de contenidos y servicios libres Retos Dar visibilidad a la cultura y el patrimonio español en la red. Desarrollar contenidos de valor añadido que capten la atención del internauta Maximizar la visibilidad de estos contenidos y servicios  1. Introducción
El posicionamiento analiza la posición  que ocupan las páginas de un sitio web en Internet desde varias perspectivas: Perspectiva de los Buscadores ¿ Cuanta información es susceptible de aparecer como resultado de una consulta? Como de importante es un sitio para un buscador Perspectiva de otros sitios Cuantos sitios recomienda las páginas de un web En que área de contenidos o servicios está incluido un sitio Perspectiva de los Internautas Cuantas visitas tiene un sitio y cual es su duración Cuales son los contenidos o servicios mas demandados 1. Introducción
Perspectiva de los Buscadores Cuantos más contenidos estén indexados por los buscadores, más opciones hay de que aparezcan como resultado de una consulta.  Cuanto mejor estén estructurados y redactados los contenidos de un sitio, mejor será indexado por los buscadores. ¿ Cuanta información es susceptible de aparecer como resultado de una consulta? Como de importante es un sitio para un buscador 1. Introducción
Perspectiva de otros sitios Internet  puede observarse como una estructura de grafo donde cada página web es un nodo y cada hiperenlace es un vértice. El número y calidad de dichos enlaces ofrecen una idea de la sociabilidad de un web entendiendo por sociabilidad la capacidad de establecer relaciones.  Cuantos sitios recomienda las páginas de un web. En que área de contenidos o servicios está incluido un sitio. 1. Introducción
Perspectiva de los Internautas Los Internautas acceden a los buscadores para satisfacer una necesidad de información que se materializa en contenidos por lo que es obvio que estos contenidos deben ser adecuados a la demanda existente.  Para asegurar este equilibrio demanda-oferta es básico realizar estadísticas de navegación a partir de los ficheros de log del web.  Cuantas visitas tiene un sitio y cual es su duración. Cuales son los contenidos o servicios mas demandados. 1. Introducción
Un Buen Posicionamiento Colocar al alcance de los internautas el 100% de sus contenidos o servicios Permite captar nuevos usuarios/clientes mediante consultas en buscadores Permite captar nuevos usuarios/clientes mediante sitios referentes Reduce los costes de promoción OnLine Un Mal Posicionamiento Hace invisible un sitio en la Red Ofrece nichos para la competencia 1. Introducción
2. Gestión de la Información
Como Llega la Información a los Buscadores La información es suministrada a los buscadores de dos formas: Manual: Alta realizada por el administrador del web Automática: Recolección de la información a través de un software que navega de forma automática.  El tratamiento automático de la información se divide en tres grandes procesos: Recolección. Análisis e Indexación. Consultas. 2. Gestión de la Información en Internet
Gestión de la Información 2. Gestión de la Información en Internet
Mercado de los Buscadores 2. Gestión de la Información en Internet
Actualizaciones de Google Google actualiza sus algoritmos cada dos meses e incluye cambios menores mensualmente. 2. Gestión de la Información en Internet
Técnicas de recuperación de la información (IR, Information Retrieval) Basadas en el Contenido Si se dispone de un web con contenidos únicos, Google posicionará sus resultados en función de sus contenidos (título, encabezados, cuerpo, etc). Contenidos “Nicho” -> Buen posicionamiento en resultados. Basadas en los Enlaces El contenido no es demasiado relevante a la hora de posicionar los resultados. Los enlaces ofrecen un indicador de lo interesante que es el contenido y su potencial para satisfacer la búsqueda de información del internauta. 2. Gestión de la Información en Internet
RI (recuperación información) Clásica Características Frecuencia de Aparición Situación de las apariciones Cercanía de la aparición Situación en el título Ineficiencias Cantidad de páginas en Internet Insuficiente auto-descripción de las páginas Técnicas de Spam Sinónimos: Una palabra clave puede no aparecer en el documento aunque esté muy relacionada con su contenido. Polisemia: La misma palabra puede significar diferentes cosas en diferentes contextos, por ej. mining 2. Gestión de la Información en Internet
HITS  (Hypertext-Induced Topic Search) Características Técnica dependiente de la consulta Los algoritmos más ambiciosos de este tipo hacen uso de Autoridades y Hubs Limitaciones Dificultad para analizar relaciones hub autorithies online. 2. Gestión de la Información en Internet
Hubs Incluyen muchos enlaces de salida Enlazan con autoridades Indican donde está la información que busca el internauta Autoridades Incluyen la información que busca el usuario Reciben enlaces de múltiples páginas. Principalmente hubs 2. Gestión de la Información en Internet
Como Convertirse en Autoridad Conseguir un enlace desde DMOZ. El web queda asociado categorías/temas Conseguir un enlace desde Yahoo Incluir en portales temáticos Conseguir enlaces desde sitios con el mismo tema Incrementar la cantidad y calidad del contenido 2. Gestión de la Información en Internet
3. Optimización
Un Proyecto Complejo  Un proyecto web debe tratarse como un proyecto informático desde el punto de vista técnico y como un proyecto de edición desde el punto de vista del diseño y de los contenidos. Nuestro posicionamiento será en gran medida en reflejo de la calidad de nuestros contenidos y servicios. En todas las fases del proyecto debemos contemplar unos objetivos claros de posicionamiento. Hay que involucrar a toda la organización, fundamentalmente a los departamentos que tendrán contenidos y servicios online. 3. Optimización
Análisis de la Competencia Es recomendable realizar una estudio de la competencia que contemple los siguientes puntos: Análisis del diseño. Análisis de contenidos y servicios. Análisis de su posicionamiento. 3. Optimización
Una vez segmentado nuestro público, se deben diseñar contenidos “de valor añadido” dirigidos a cada segmento. Público Objetivo  Es necesario en la fase de análisis el identificar claramente los públicos objetivos de nuestro web.  3. Optimización
Limitar el diseño para que sea compatible con un buen posicionamiento y un grado aceptable de accesibilidad Limitar el uso de popups El uso de frames puede provocar la indexación parcial de una página. La página recuperada en la consulta no permite la navegación al resto del web 3. Optimización Diseño vs Posicionamiento
Diseño vs Posicionamiento Las funciones avanzadas como Javascript, cookies, ID de sesión, marcos, DHTML o Flash pueden impedir la indexación de todo el sitio. La mayor parte de los contenidos almacenados en bases de datos quedan ocultos a los buscadores en lo que podemos llamar “Internet Invisible”. Es necesario establecer mecanismos que posibiliten la indexación de estos contenidos dinámicos de forma automática por los robots 3. Optimización Web Accesibility Toolbar Herramientas
Evolución Modelos Web Los primeros web se basaban en modelo estáticos que exigían la modificación de páginas html para la inclusión o modificación de contenidos. Conforme las necesidades de actualización e inclusión de contenidos fueron incrementándose, los desarrollos web evolucionaron hacia modelos basados en páginas dinámicas que gestionaban contenidos en base de datos. Modelo para el Posicionamiento Actualmente y de cara a obtener un buen posicionamiento del 100% de los contenidos de un web el modelo ha pasado a ser de nuevo estático sin abandonar el uso de bases de datos. A partir de los contenidos de la base de datos se genera de forma automática el nuevo web en formato html. 3. Optimización
Palabras Clave  URL:  Incluir en la URL palabras clave. Header:  Título de un máximo de 5 palabras comenzando por la principal palabra clave. Descripción: Igual que el título. Palabras Clave: Las misma que el título separadas por comas. Cuerpo Utilizar texto alternativo en imágenes con palabras clave. Utilizar etiquetas de encabezado <H1>. Utilizar palabras clave en los enlaces. Destacar el font de las palabras clave. Utilizar, sin abusar, la(s) palabra(s) clave en el texto. 3. Optimización
Recomendaciones de Accesibilidad  Desarrollar nuestro web siguiendo las recomendaciones del W3C además de contribuir a la eliminación de barreras, nos asegurará un web bien estructurado. Algunas recomendaciones del W3C: Imágenes y animaciones: Use texto alternativo (atributo alt) para describir la función de los elementos visuales.  Mapas de imagen: Use mapas de cliente y texto alternativo para las zonas activas.  Multimedia: Facilite subtítulos y trascripción de los ficheros de sonido, descripción de los vídeos.  Enlaces de hipertexto: Use texto que tenga sentido cuando se lea fuera de contexto. Por ejemplo, no usar &quot;pincha aquí&quot;.  Organización de las páginas: Use encabezados (H1, H2, H3,...), listas y estructura consistente. Use Hojas de Estilo en Cascada (CSS). 3. Optimización
Es necesario que nuestro web disponga de un fichero robots.txt para: Restringir nuestro web a los robots más importantes. Restringir la búsqueda en directorios con contenidos obsoletos. Simulación Robot:  http://www.searchengineworld.com/cgi-bin/sim_spider.cgi MuseoThyssen.org Ie.edu Spain.info Nuestros Amigos Los Robots Los robots deben ser tratados a la hora de diseñar nuestro web como un usuario preferente. De su trabajo de recolección depende el posicionamiento de nuestros contenidos. 3. Optimización
Posicionamiento Inicial Una vez finalizado nuestro web pasamos a su puesta en explotación y su posicionamiento en los buscadores. Una buena URL es clave a la hora de obtener un buen posicionamiento. Nuestra URL debe: Ser fácil de recordar Estar asociada a nuestra marca Offline Debe incluir palabras clave. Incluir nuestra URL en los principales directorios y buscadores DMZ, Yahoo, Google. Incluir nuestra URL en web de nuestro sector: p. ej. Euromusee.net Apoyar el conocimiento de nuestro web con acciones de marketing On-Line y Off-Line. 3. Optimización
Asegurar Disponibilidad 7x24 Cuando un Internauta consulta nuestra página web y obtiene una página de error se produce frustración y un deterioro evidente de la calidad de nuestro servicios y contenidos.  Para asegurar la disponibilidad de nuestros web, es recomendable: Monitorización del web: Mediante herramientas software se debe supervisar la disponibilidad de nuestros servicios y contenidos. Esta monitorización debe incluir: páginas estáticas, dinámicas y acceso a base de datos. Analizar y solucionar los errores: Todos los web generan errores de usuario debido a enlaces incorrectos o ficheros no disponibles. 3. Optimización
4. Prácticas Penalizadas
4. Prácticas Penalizadas Penalizaciones Google Google no permite que los webmasters abusen de su algoritmo, e intenten situar algunas páginas en las primeras posiciones de los resultados mediante prácticas fraudulentas.  La forma de penalizarlos puede ir desde borrarlos de sus resultados, disminuir su PageRank, o no tener en cuenta los enlaces desde una determinada página.
Penalizaciones Buscadores Una penalización, en el ámbito del posicionamiento web, hace referencia a una sanción, que nos impone un determinado buscador a nuestro sitio web. Penalizaciones Leves: Disminución de los índices usados en la ordenación de resultados. Bloqueo la transferencia de estos índices a sitios con PR alto que intentan venderlo. Penalizaciones Altas: Reducir el índice a 0. Eliminación de todas las páginas indexadas de una web, al igual que sus enlaces entrantes y su índice.   4. Prácticas Penalizadas
Penalizaciones Google Caso Realiza.net Esta web fue penalizada, todas sus páginas desaparecieron del buscador, su PageRank y sus enlaces, una penalización total.  Es una web dedicada al diseño web y al posicionamiento en buscadores, que también participaba del concurso de posicionamiento &quot;telendro&quot;.  Los motivos aparentes son:  Muchos enlaces de webs relacionadas pero a su vez muchos de weblogs y libros de visita. A Gran cantidad de páginas muy similares entre sí.  4. Prácticas Penalizadas
Cloacking El cloaking es una técnica que se basa en resumen en mostrar al usuario unos contenidos y dar otros contenidos distintos al robot de google.  Páginas Doorway Son paginas diseñadas también para los buscadores, en donde la optimizan muy bien con muchas palabras claves. El visitante entra es redirigido desde esta pagina con un javascript. 4. Prácticas Penalizadas
Texto Oculto Muchos webmaster insertan textos del mismo color del fono para aumentar la densidad de las palabras clave y así son imperceptibles a la vista del visitante, sin embargo google estas practicas suele detectarlas pudiendo penalizar tu pagina web.  Abuso Palabras Clave Cada vez son los creadores de paginas web que conocen los trucos para un buen posicionamiento y algunos quieren llevarlos hasta limites peligrosos en los que sobreoptimizan la pagina con la palabra clave en el titulo, en los h1, h2, urls, etc pero sin ningún contenido con relación a dicha palabra. Google también penaliza la sobreoptimización. 4. Prácticas Penalizadas
Tag Spamming Abuso de etiquetas para incluir información para los buscadores. Páginas Duplicadas Las paginas duplicadas seria generar el mismo contenido en dos o mas paginas web de la siguiente manera: www.web.com/pag1.htm y www.web.com/dir/pag2.htm teniendo pag1 y pag2 el mismo contenido.  Enlaces Ocultos De la misma manera que los textos ocultos, al poner enlaces hacia otros sitios web del mismo color del fono y asi no ser vistos por los visitantes. Técnica penalizada por google. 4. Prácticas Penalizadas
Bite & Switch Consiste en dar de alta una página web en los buscadores y, una vez indexada, reemplazarla por otra.  Log Spamming Ahora la mayoría de blogs permiten hacer comentarios, y en estos comentarios añadir una web y un nombre, pues los spammers ponen un comentario en cada post dejando su web, como nombre la palabra clave con la que quieren posicionarse y como comentario la descripción de la web. Esto mismo es aplicable a los libros de visitas.  Granjas de Enlaces FFA (Free for All) y link farms: Los FFa son sitios que incluyen tu web totalmente gratis sin ningún orden como un directorio. 4. Prácticas Penalizadas
5. Método de Análisis
5.1. Análisis del Visitante Visitas por Día de la Semana
5.1. Análisis del Visitante Visitas por Hora
5.1. Análisis del Visitante Páginas más Visitadas
5.1. Análisis del Visitante Directorios más Visitados
5.1. Análisis del Visitante 92,02% Fidelidad del Visitante
5.1. Análisis del Visitante 63,11% Páginas vistas por Visita
5.1. Análisis del Visitante 82,46% Duración de la Visita
5.1. Análisis del Visitante Origen (WebTrends) Webtrends Funnel Web Analyzer
5.1. Análisis del Visitante Hace falta un estudio mas amplio que nos indique la procedencia de nuestros visitantes. Origen. Quest vs WebTrends
Sitios y Páginas Referentes Webtrends (MTB 11/2004) 5.1. Análisis del Visitante
Visitas de Robots Funnel Web Analyzer Webtrends 5.1. Análisis del Visitante
Motores de Búsqueda Funnel Web Analyzer 5.1. Análisis del Visitante
Palabras y Frases de Búsqueda Funnel Web Analyzer Webtrends 5.1. Análisis del Visitante
5.1. Análisis del Visitante Perfil Tecnológico Sistemas Operativos Navegador
5.1. Análisis del Visitante Errores El más común siempre es el 404  Páginas de disculpas 404
5.1. Análisis del Visitante Herramientas En el mercado existe una amplia oferta de softwtare para el análisis de los ficheros de log generados por los servidores web (Apache, IIS, …) Awstats Asp Stats Funnel Web Analyzer Herramientas
Analizar la Demanda Es clave conocer las palabras/frases más demandadas por los usuarios. La oferta de contenidos de nuestro sitio web deberá considerar la demanda de contenidos con el objetivo de atraer visitantes. 5.2. Recolección, Indexación y Recuperación Google AddWords Herramientas Inventory Overture Google Trends Zeitgeist Madrid -  Barcelona
Analizar la Oferta Las palabras clave deben ser coherentes con el contenido de las páginas Todas las páginas deberían tener palabras clave 5.2. Recolección, Indexación y Recuperación SeInspector googlefight Keyword   Density Checker   Herramientas Widxl.com
Simulación de un Robot  (widexl.com y scrubtheweb.com) 5.2. Recolección, Indexación y Recuperación Widexl.com Scrubtheweb.com Search Engine World Herramientas
Páginas indexadas  Todo sitio web debería aspirar a tener indexadas en los principales buscadores el 100% de sus páginas. 5.2. Recolección, Indexación y Recuperación
Posición Palabras Clave/Buscador Analizar la posición de las páginas de un sitio en comparación con la de otros sitios que compiten en las mismas palabras 5.2. Recolección, Indexación y Recuperación Advanced Web Ranking Scrubtheweb.com Web Position Gold Herramientas
Vecindario por Contenidos Relacionados 5.3. Vecindario/Competidores TouchGraph Herramientas
Vecindario por Tráfico (Alexa) 5.3. Vecindario/Competidores
Vecindario en Directorio DMOZ 5.3. Vecindario/Competidores
Análisis de Sitios Bien Posicionados Analizar los sitios cuyas páginas aparecen bien posicionadas en consultas con frases de búsqueda en las que nuestro sitio desea posicionar sus páginas Es una de las formas de identificar los competidores OnLine 5.3. Vecindario/Competidores
Popularidad por Citación (Page Rank Google) La popularidad mide el número de enlaces a nuestra web. No todos los enlaces aportan valor a nuestro web. Es necesario realizar un seguimiento de los enlaces a nuestro web en los principales buscadores. 5.4. Popularidad
5.5. KYV (Know Your Visibility) tool Proyecto de la UCLM Herramienta para el análisis de la visibilidad
Popularidad por Citación (Page Rank Google) 7. Análisis Ejemplo 5.4. Popularidad
Popularidad por Citación (Alexa) 5.4. Popularidad
Popularidad por Citación 5.4. Popularidad Widexl.com Herramientas LinkTextTool Backlink Builder
Popularidad por Tráfico (Alexa) 5.4. Popularidad
8. Posicionamiento Promocional
Sistemas de publicidad de CPC Características Los anunciantes seleccionan palabras clave. Los anuncios aparecen junto con los resultados de la consulta.  El anunciante decide el CPC. Este CPC influye en la posición de su anuncio. El anunciante selecciona un presupuesto máximo. Cuando se consume, el anuncio deja de publicarse. Ventajas En los medios tradicionales hay que elegir entre: Llegar a un gran público desperdiciando inversión. Aprovecha la inversión llegando a un número reducido de público objetivo. Accede al cliente potencial en un momento “caliente” próximo a la compra frente a sistemas como la segmentación geográfica o por perfiles de consumo. 8. Posicionamiento Promocional
Addwords, Overture, Spotting Media 8. Posicionamiento Promocional Se-bid.com Herramientas Google AddWords
Sistemas de publicidad de CPC Problemas Sistema muy sensible al sabotaje.  Caso “Assaf Nehoray”:  Campaña de marketing online de un marketplace de compañías de transporte saboteada.  Se identifico un gran volumen de tráfico y clicks en anuncios sin que se incrementaran las ventas. Puesto que el anunciante marca un coste diario, los anuncios desaparecían en pocas horas tras haber sido bombardeados por clicks mediante un software automático. 8. Posicionamiento Promocional
Sistemas de publicidad de coste por click Problemas: Caso Spendonlife.com Muchas URL no existían o pertenecían a la misma compañía. Las URL sospechosas realizaban un volumen de clicks superior a otras similares. Algunas URL accedían al anuncio cada poco tiempo. Muchos visitantes pasaban menos de un segundo en la página publicitada. Muchos clicks provenían de servidores proxy anónimos sin URL referente. La actividad era superior en las compañías CPC principales. 8. Posicionamiento Promocional
9. Conclusiones
Conclusiones El posicionamiento es en cierta forma una especie de  ciencia experimental , donde los grandes buscadores protegen sus algoritmos de gestión de información con gran celo, obligando a los sitios web a evolucionar en su posicionamiento mediante procesos de prueba y error. 9. Conclusiones Los contenidos de calidad bien estructurados y relacionados se configuran como el elemento clave del posicionamiento. El posicionamiento depende y dependerá de la forma en la que los buscadores organicen la información por lo que se hace recomendable mantenerse informado  de las nuevas tendencias, como nuevos algoritmos de búsqueda, nuevos buscadores, etc.
Estrategia para un Buen Posicionamiento El posicionamiento de un sitio debería centrase en alcanzar un buen posicionamiento “natural”, no pagado, combinado con acciones puntuales de marketing online. Una buena estrategia debería contemplar las siguientes cuatro acciones clave: Asegurar una correcta indexación Potenciar los enlaces   Puntualmente Posicionamiento Pagado   Plan de Acción   9. Conclusiones
Asegurar una correcta indexación Para maximizar el número de páginas indexadas es necesario respetar ciertas reglas que limitan las posibilidades de diseño y programación pero que facilitan la tarea de recolección de información de los robots. Entre estas reglas destacan las siguientes: 9. Conclusiones Reducir el uso de elementos de diseño que dificultan a los robots la lectura de las páginas.  Limitar la utilización de páginas dinámicas que recuperan información de bases de datos y que no pueden ser accedidas por los robots que tan sólo son capaces de navegar a través de hiperenlaces. Programar de una forma limpia y estructurada la página web haciendo un uso correcto de las etiquetas html.
Potenciar los Enlaces El texto de los enlaces también son importantes de forma que un enlace del tipo ver ficha es peor valorado que un del tipo Ver Biografía Gauguin. Fomentar la conexión con páginas relacionadas temáticamente constituyendo un comunidad fuertemente interconectada. Establecer una estrategia para la obtención de enlaces de calidad desde otras páginas fuera del web. 9. Conclusiones
Una Estrategia de Enlaces (1/2) Primar la calidad a la cantidad Utilizar directorios, portales temáticos y  agregadores como :  Dmoz, Yahoo, europeanmuseumguide.com o pricerunner.co.uk  9. Conclusiones Posicionarse como Experto:  Escribir guías, artículos, consejos, etc., en foros y blogs. Diseñar contenidos de calidad para colocarlos en sitios relacionados.
Una Estrategia de Enlaces (2/2) Identificar los sitios de los que queremos recibir enlaces haciendo uso de los enlaces reconocidos por los buscadores: Yahoo: “linkdomain:domain.com”,  Google &quot;link:domain.com&quot; Identificar sitios temáticamente relacionados : Yahoo: “related:domain.com”,  Google “related:domain.com“ Identificar sitios de interés para el mismo público objetivo. Yahoo: People who visit this.... 9. Conclusiones
Posicionamiento Pagado Puntualmente y con el objetivo de promocionar un producto o servicio durante un corto periodo de tiempo y a un determinado público objetivo es recomendable realizar acciones de marketing on line.  9. Conclusiones
Plan de Acción Puesto que este análisis se realiza para conocer la posición de nuestro web en Internet es recomendable elaborar un plan de acción en donde tras un análisis inicial se definan unos objetivos razonables.  9. Conclusiones
Tendencias Google Yahoo y MSN liderarán el mercado a corto y medio plazo. El mercado demanda mejores resultados naturales, no pagados. Google es el buscador con más experiencia en esta tecnología. Las búsquedas incluirán referencias geográficas. Los buscadores incluirán correo gratuito para establecer nuevos modelos de publicidad.  El concepto de búsqueda se ampliará las búsquedas locales. Los modelos de publicidad CPC evolucionarán hacia modelos que aseguren la calidad del click. 9. Conclusiones

Más contenido relacionado

PPT
Curso SEO para ISCIII
PPTX
Seo presentación slideshare
PPS
Posicionamiento Online
PDF
Posicionamiento web Part1
DOCX
Motores de búsqueda
PDF
Agentes inteligentes para seo
PPTX
Presentacion seo que es y para que sirve en los negocios
DOCX
Motores de búsqueda
Curso SEO para ISCIII
Seo presentación slideshare
Posicionamiento Online
Posicionamiento web Part1
Motores de búsqueda
Agentes inteligentes para seo
Presentacion seo que es y para que sirve en los negocios
Motores de búsqueda

La actualidad más candente (18)

PDF
Presentación - Introducción al SEO
DOCX
Posicionamiento en buscadores
PPTX
Lo mínimo que debes saber de SEO
PPTX
Publicidad En Internet
PPT
Posicionamiento Web 2009
PDF
PPT
Modelos de publicidad y promoción en línea
PDF
Chuleta SEO
PDF
Posicionamiento en Buscadores - SEO
PDF
Posicionamiento seo en la web corporativa
PPTX
Posicionamiento Web y Computación en la Nube
PDF
Presentacion posicionamiento web en buscadores
PPTX
Introduccion al Posicionamiento Natural en Buscadores (SEO)
PDF
Presentacion SEO y SEM
PPTX
Expo seo
PPTX
2º deber de Auditoria
PPT
SEO-Google Rank-Sistemas de Información Postgrado en Mercadeo de Empresas UCV...
Presentación - Introducción al SEO
Posicionamiento en buscadores
Lo mínimo que debes saber de SEO
Publicidad En Internet
Posicionamiento Web 2009
Modelos de publicidad y promoción en línea
Chuleta SEO
Posicionamiento en Buscadores - SEO
Posicionamiento seo en la web corporativa
Posicionamiento Web y Computación en la Nube
Presentacion posicionamiento web en buscadores
Introduccion al Posicionamiento Natural en Buscadores (SEO)
Presentacion SEO y SEM
Expo seo
2º deber de Auditoria
SEO-Google Rank-Sistemas de Información Postgrado en Mercadeo de Empresas UCV...
Publicidad

Destacado (7)

PPTX
@museothyssen en las RRSS
PPTX
Communicating The Museum Javier Espadas
PPT
Museums in the Web 1.0 -> 2.0
PPTX
Educación en museos. Compromiso digital
PPT
Research Production Internet Visibility Analysis
PPTX
MuseoThyssen.org
PPTX
Museo Thyssen en Netapp Innovation
@museothyssen en las RRSS
Communicating The Museum Javier Espadas
Museums in the Web 1.0 -> 2.0
Educación en museos. Compromiso digital
Research Production Internet Visibility Analysis
MuseoThyssen.org
Museo Thyssen en Netapp Innovation
Publicidad

Similar a Posicionamiento en Internet (20)

PPT
Analisis seo.ppt2
PPT
Analisis seo
PPSX
Buscadores, SEM SEO: el desafío de ser visto en la web
PPTX
Optimización onpage y offpage
PPTX
Posicionamiento en buscadores
PPTX
Sacando partido a internet
PDF
Introducción al Posicionamiento en Buscadores SEO
PDF
Seo y Sem- Sd3 agencia de Marketing Digital
PDF
Proyecto final + Ackermann.pdf
PPT
Optimización para Buscadores (SEO)
PPSX
Google Analytics, Seo, Social Media
PPT
IV.Interlat Upb Curso Ebusiness Pymes Modulo IV
PPT
Posicionamiento en buscadores web SEO 10 acciones para realizar
PPT
Descubre cómo mejorar tu visibilidad local. El SEO y la Geolocalización
PPT
SEO-search-engine-optimization
PDF
SEO - Los
PDF
Mi primera presentación en Slideshare
PPTX
SEO, SEM , GOOGLE ANALYTICS, ANALITICA WEB
PDF
Curso Blogger_Posicionamiento SEO
Analisis seo.ppt2
Analisis seo
Buscadores, SEM SEO: el desafío de ser visto en la web
Optimización onpage y offpage
Posicionamiento en buscadores
Sacando partido a internet
Introducción al Posicionamiento en Buscadores SEO
Seo y Sem- Sd3 agencia de Marketing Digital
Proyecto final + Ackermann.pdf
Optimización para Buscadores (SEO)
Google Analytics, Seo, Social Media
IV.Interlat Upb Curso Ebusiness Pymes Modulo IV
Posicionamiento en buscadores web SEO 10 acciones para realizar
Descubre cómo mejorar tu visibilidad local. El SEO y la Geolocalización
SEO-search-engine-optimization
SEO - Los
Mi primera presentación en Slideshare
SEO, SEM , GOOGLE ANALYTICS, ANALITICA WEB
Curso Blogger_Posicionamiento SEO

Último (20)

PDF
Distribucion de frecuencia exel (1).pdf
PDF
Tips de Seguridad para evitar clonar sus claves del portal bancario.pdf
DOCX
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
PPTX
Tema 1 Taller de tecnologia y proceso tecnologico.pptx
PDF
Documental Beyond the Code (Dossier Presentación - 2.0)
PPTX
El uso de las TIC en la vida cotidiana..
DOCX
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
PPTX
Control de calidad en productos de frutas
PPTX
la-historia-de-la-medicina Edna Silva.pptx
PDF
Estrategia de apoyo valentina lopez/ 10-3
DOCX
TRABAJO GRUPAL (5) (1).docxjsjsjskskksksk
PDF
Teoría de estadística descriptiva y aplicaciones .pdf
DOCX
Guía 5. Test de orientación Vocacional 2.docx
PDF
informe_fichas1y2_corregido.docx (2) (1).pdf
PDF
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
PDF
TRABAJO DE TECNOLOGIA.pdf...........................
DOCX
Trabajo informatica joel torres 10-.....................
PDF
Taller tecnológico Michelle lobo Velasquez
DOCX
Trabajo grupal.docxjsjsjsksjsjsskksjsjsjsj
PPTX
Uso responsable de la tecnología - EEST N°1
Distribucion de frecuencia exel (1).pdf
Tips de Seguridad para evitar clonar sus claves del portal bancario.pdf
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
Tema 1 Taller de tecnologia y proceso tecnologico.pptx
Documental Beyond the Code (Dossier Presentación - 2.0)
El uso de las TIC en la vida cotidiana..
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
Control de calidad en productos de frutas
la-historia-de-la-medicina Edna Silva.pptx
Estrategia de apoyo valentina lopez/ 10-3
TRABAJO GRUPAL (5) (1).docxjsjsjskskksksk
Teoría de estadística descriptiva y aplicaciones .pdf
Guía 5. Test de orientación Vocacional 2.docx
informe_fichas1y2_corregido.docx (2) (1).pdf
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
TRABAJO DE TECNOLOGIA.pdf...........................
Trabajo informatica joel torres 10-.....................
Taller tecnológico Michelle lobo Velasquez
Trabajo grupal.docxjsjsjsksjsjsskksjsjsjsj
Uso responsable de la tecnología - EEST N°1

Posicionamiento en Internet

  • 1. Posicionamiento en Internet Universidad de Castilla la Mancha Albacete, 8 de marzo de 2007
  • 2. 1. Introducción Las Cifras de Internet Páginas en Internet: > 11.000 millones de páginas [1] . Número de Host .es: Enero 2007, 2,9 millones. Posición 18. (Internet Systems Consortium ISC). 433 millones a nivel mundial [1] Gulli, A. and Signorini, A. 2005. The indexable web is more than 11.5 billion pages. In Special interest Tracks and Posters of the 14 th international Conference on World Wide Web (Chiba, Japan, May 10 - 14, 2005). WWW '05.
  • 3. Las Cifras de Internet El 8,1% de la población que accede a Internet es hispanohablante(47,2 millones de usuarios) Sólo el 3,1% de las páginas en Internet están en Español frente al 60,4% que están en Ingles. Los usuarios de Google han aumentado un 65% mientras que los usuarios de Internet han aumentado un 26%. 1. Introducción
  • 4. Oportunidades Eliminación las barreras geográficas Reducción de costes Nuevos modelos de negocio Riesgos Invisibilidad: Todo contenido no accesible por los buscadores Siempre aparecerá algún sitio web que cubra los nichos de contenidos y servicios libres Retos Dar visibilidad a la cultura y el patrimonio español en la red. Desarrollar contenidos de valor añadido que capten la atención del internauta Maximizar la visibilidad de estos contenidos y servicios 1. Introducción
  • 5. El posicionamiento analiza la posición que ocupan las páginas de un sitio web en Internet desde varias perspectivas: Perspectiva de los Buscadores ¿ Cuanta información es susceptible de aparecer como resultado de una consulta? Como de importante es un sitio para un buscador Perspectiva de otros sitios Cuantos sitios recomienda las páginas de un web En que área de contenidos o servicios está incluido un sitio Perspectiva de los Internautas Cuantas visitas tiene un sitio y cual es su duración Cuales son los contenidos o servicios mas demandados 1. Introducción
  • 6. Perspectiva de los Buscadores Cuantos más contenidos estén indexados por los buscadores, más opciones hay de que aparezcan como resultado de una consulta. Cuanto mejor estén estructurados y redactados los contenidos de un sitio, mejor será indexado por los buscadores. ¿ Cuanta información es susceptible de aparecer como resultado de una consulta? Como de importante es un sitio para un buscador 1. Introducción
  • 7. Perspectiva de otros sitios Internet puede observarse como una estructura de grafo donde cada página web es un nodo y cada hiperenlace es un vértice. El número y calidad de dichos enlaces ofrecen una idea de la sociabilidad de un web entendiendo por sociabilidad la capacidad de establecer relaciones. Cuantos sitios recomienda las páginas de un web. En que área de contenidos o servicios está incluido un sitio. 1. Introducción
  • 8. Perspectiva de los Internautas Los Internautas acceden a los buscadores para satisfacer una necesidad de información que se materializa en contenidos por lo que es obvio que estos contenidos deben ser adecuados a la demanda existente. Para asegurar este equilibrio demanda-oferta es básico realizar estadísticas de navegación a partir de los ficheros de log del web. Cuantas visitas tiene un sitio y cual es su duración. Cuales son los contenidos o servicios mas demandados. 1. Introducción
  • 9. Un Buen Posicionamiento Colocar al alcance de los internautas el 100% de sus contenidos o servicios Permite captar nuevos usuarios/clientes mediante consultas en buscadores Permite captar nuevos usuarios/clientes mediante sitios referentes Reduce los costes de promoción OnLine Un Mal Posicionamiento Hace invisible un sitio en la Red Ofrece nichos para la competencia 1. Introducción
  • 10. 2. Gestión de la Información
  • 11. Como Llega la Información a los Buscadores La información es suministrada a los buscadores de dos formas: Manual: Alta realizada por el administrador del web Automática: Recolección de la información a través de un software que navega de forma automática. El tratamiento automático de la información se divide en tres grandes procesos: Recolección. Análisis e Indexación. Consultas. 2. Gestión de la Información en Internet
  • 12. Gestión de la Información 2. Gestión de la Información en Internet
  • 13. Mercado de los Buscadores 2. Gestión de la Información en Internet
  • 14. Actualizaciones de Google Google actualiza sus algoritmos cada dos meses e incluye cambios menores mensualmente. 2. Gestión de la Información en Internet
  • 15. Técnicas de recuperación de la información (IR, Information Retrieval) Basadas en el Contenido Si se dispone de un web con contenidos únicos, Google posicionará sus resultados en función de sus contenidos (título, encabezados, cuerpo, etc). Contenidos “Nicho” -> Buen posicionamiento en resultados. Basadas en los Enlaces El contenido no es demasiado relevante a la hora de posicionar los resultados. Los enlaces ofrecen un indicador de lo interesante que es el contenido y su potencial para satisfacer la búsqueda de información del internauta. 2. Gestión de la Información en Internet
  • 16. RI (recuperación información) Clásica Características Frecuencia de Aparición Situación de las apariciones Cercanía de la aparición Situación en el título Ineficiencias Cantidad de páginas en Internet Insuficiente auto-descripción de las páginas Técnicas de Spam Sinónimos: Una palabra clave puede no aparecer en el documento aunque esté muy relacionada con su contenido. Polisemia: La misma palabra puede significar diferentes cosas en diferentes contextos, por ej. mining 2. Gestión de la Información en Internet
  • 17. HITS (Hypertext-Induced Topic Search) Características Técnica dependiente de la consulta Los algoritmos más ambiciosos de este tipo hacen uso de Autoridades y Hubs Limitaciones Dificultad para analizar relaciones hub autorithies online. 2. Gestión de la Información en Internet
  • 18. Hubs Incluyen muchos enlaces de salida Enlazan con autoridades Indican donde está la información que busca el internauta Autoridades Incluyen la información que busca el usuario Reciben enlaces de múltiples páginas. Principalmente hubs 2. Gestión de la Información en Internet
  • 19. Como Convertirse en Autoridad Conseguir un enlace desde DMOZ. El web queda asociado categorías/temas Conseguir un enlace desde Yahoo Incluir en portales temáticos Conseguir enlaces desde sitios con el mismo tema Incrementar la cantidad y calidad del contenido 2. Gestión de la Información en Internet
  • 21. Un Proyecto Complejo Un proyecto web debe tratarse como un proyecto informático desde el punto de vista técnico y como un proyecto de edición desde el punto de vista del diseño y de los contenidos. Nuestro posicionamiento será en gran medida en reflejo de la calidad de nuestros contenidos y servicios. En todas las fases del proyecto debemos contemplar unos objetivos claros de posicionamiento. Hay que involucrar a toda la organización, fundamentalmente a los departamentos que tendrán contenidos y servicios online. 3. Optimización
  • 22. Análisis de la Competencia Es recomendable realizar una estudio de la competencia que contemple los siguientes puntos: Análisis del diseño. Análisis de contenidos y servicios. Análisis de su posicionamiento. 3. Optimización
  • 23. Una vez segmentado nuestro público, se deben diseñar contenidos “de valor añadido” dirigidos a cada segmento. Público Objetivo Es necesario en la fase de análisis el identificar claramente los públicos objetivos de nuestro web. 3. Optimización
  • 24. Limitar el diseño para que sea compatible con un buen posicionamiento y un grado aceptable de accesibilidad Limitar el uso de popups El uso de frames puede provocar la indexación parcial de una página. La página recuperada en la consulta no permite la navegación al resto del web 3. Optimización Diseño vs Posicionamiento
  • 25. Diseño vs Posicionamiento Las funciones avanzadas como Javascript, cookies, ID de sesión, marcos, DHTML o Flash pueden impedir la indexación de todo el sitio. La mayor parte de los contenidos almacenados en bases de datos quedan ocultos a los buscadores en lo que podemos llamar “Internet Invisible”. Es necesario establecer mecanismos que posibiliten la indexación de estos contenidos dinámicos de forma automática por los robots 3. Optimización Web Accesibility Toolbar Herramientas
  • 26. Evolución Modelos Web Los primeros web se basaban en modelo estáticos que exigían la modificación de páginas html para la inclusión o modificación de contenidos. Conforme las necesidades de actualización e inclusión de contenidos fueron incrementándose, los desarrollos web evolucionaron hacia modelos basados en páginas dinámicas que gestionaban contenidos en base de datos. Modelo para el Posicionamiento Actualmente y de cara a obtener un buen posicionamiento del 100% de los contenidos de un web el modelo ha pasado a ser de nuevo estático sin abandonar el uso de bases de datos. A partir de los contenidos de la base de datos se genera de forma automática el nuevo web en formato html. 3. Optimización
  • 27. Palabras Clave URL: Incluir en la URL palabras clave. Header: Título de un máximo de 5 palabras comenzando por la principal palabra clave. Descripción: Igual que el título. Palabras Clave: Las misma que el título separadas por comas. Cuerpo Utilizar texto alternativo en imágenes con palabras clave. Utilizar etiquetas de encabezado <H1>. Utilizar palabras clave en los enlaces. Destacar el font de las palabras clave. Utilizar, sin abusar, la(s) palabra(s) clave en el texto. 3. Optimización
  • 28. Recomendaciones de Accesibilidad Desarrollar nuestro web siguiendo las recomendaciones del W3C además de contribuir a la eliminación de barreras, nos asegurará un web bien estructurado. Algunas recomendaciones del W3C: Imágenes y animaciones: Use texto alternativo (atributo alt) para describir la función de los elementos visuales. Mapas de imagen: Use mapas de cliente y texto alternativo para las zonas activas. Multimedia: Facilite subtítulos y trascripción de los ficheros de sonido, descripción de los vídeos. Enlaces de hipertexto: Use texto que tenga sentido cuando se lea fuera de contexto. Por ejemplo, no usar &quot;pincha aquí&quot;. Organización de las páginas: Use encabezados (H1, H2, H3,...), listas y estructura consistente. Use Hojas de Estilo en Cascada (CSS). 3. Optimización
  • 29. Es necesario que nuestro web disponga de un fichero robots.txt para: Restringir nuestro web a los robots más importantes. Restringir la búsqueda en directorios con contenidos obsoletos. Simulación Robot: http://www.searchengineworld.com/cgi-bin/sim_spider.cgi MuseoThyssen.org Ie.edu Spain.info Nuestros Amigos Los Robots Los robots deben ser tratados a la hora de diseñar nuestro web como un usuario preferente. De su trabajo de recolección depende el posicionamiento de nuestros contenidos. 3. Optimización
  • 30. Posicionamiento Inicial Una vez finalizado nuestro web pasamos a su puesta en explotación y su posicionamiento en los buscadores. Una buena URL es clave a la hora de obtener un buen posicionamiento. Nuestra URL debe: Ser fácil de recordar Estar asociada a nuestra marca Offline Debe incluir palabras clave. Incluir nuestra URL en los principales directorios y buscadores DMZ, Yahoo, Google. Incluir nuestra URL en web de nuestro sector: p. ej. Euromusee.net Apoyar el conocimiento de nuestro web con acciones de marketing On-Line y Off-Line. 3. Optimización
  • 31. Asegurar Disponibilidad 7x24 Cuando un Internauta consulta nuestra página web y obtiene una página de error se produce frustración y un deterioro evidente de la calidad de nuestro servicios y contenidos. Para asegurar la disponibilidad de nuestros web, es recomendable: Monitorización del web: Mediante herramientas software se debe supervisar la disponibilidad de nuestros servicios y contenidos. Esta monitorización debe incluir: páginas estáticas, dinámicas y acceso a base de datos. Analizar y solucionar los errores: Todos los web generan errores de usuario debido a enlaces incorrectos o ficheros no disponibles. 3. Optimización
  • 33. 4. Prácticas Penalizadas Penalizaciones Google Google no permite que los webmasters abusen de su algoritmo, e intenten situar algunas páginas en las primeras posiciones de los resultados mediante prácticas fraudulentas. La forma de penalizarlos puede ir desde borrarlos de sus resultados, disminuir su PageRank, o no tener en cuenta los enlaces desde una determinada página.
  • 34. Penalizaciones Buscadores Una penalización, en el ámbito del posicionamiento web, hace referencia a una sanción, que nos impone un determinado buscador a nuestro sitio web. Penalizaciones Leves: Disminución de los índices usados en la ordenación de resultados. Bloqueo la transferencia de estos índices a sitios con PR alto que intentan venderlo. Penalizaciones Altas: Reducir el índice a 0. Eliminación de todas las páginas indexadas de una web, al igual que sus enlaces entrantes y su índice. 4. Prácticas Penalizadas
  • 35. Penalizaciones Google Caso Realiza.net Esta web fue penalizada, todas sus páginas desaparecieron del buscador, su PageRank y sus enlaces, una penalización total. Es una web dedicada al diseño web y al posicionamiento en buscadores, que también participaba del concurso de posicionamiento &quot;telendro&quot;. Los motivos aparentes son: Muchos enlaces de webs relacionadas pero a su vez muchos de weblogs y libros de visita. A Gran cantidad de páginas muy similares entre sí. 4. Prácticas Penalizadas
  • 36. Cloacking El cloaking es una técnica que se basa en resumen en mostrar al usuario unos contenidos y dar otros contenidos distintos al robot de google. Páginas Doorway Son paginas diseñadas también para los buscadores, en donde la optimizan muy bien con muchas palabras claves. El visitante entra es redirigido desde esta pagina con un javascript. 4. Prácticas Penalizadas
  • 37. Texto Oculto Muchos webmaster insertan textos del mismo color del fono para aumentar la densidad de las palabras clave y así son imperceptibles a la vista del visitante, sin embargo google estas practicas suele detectarlas pudiendo penalizar tu pagina web. Abuso Palabras Clave Cada vez son los creadores de paginas web que conocen los trucos para un buen posicionamiento y algunos quieren llevarlos hasta limites peligrosos en los que sobreoptimizan la pagina con la palabra clave en el titulo, en los h1, h2, urls, etc pero sin ningún contenido con relación a dicha palabra. Google también penaliza la sobreoptimización. 4. Prácticas Penalizadas
  • 38. Tag Spamming Abuso de etiquetas para incluir información para los buscadores. Páginas Duplicadas Las paginas duplicadas seria generar el mismo contenido en dos o mas paginas web de la siguiente manera: www.web.com/pag1.htm y www.web.com/dir/pag2.htm teniendo pag1 y pag2 el mismo contenido. Enlaces Ocultos De la misma manera que los textos ocultos, al poner enlaces hacia otros sitios web del mismo color del fono y asi no ser vistos por los visitantes. Técnica penalizada por google. 4. Prácticas Penalizadas
  • 39. Bite & Switch Consiste en dar de alta una página web en los buscadores y, una vez indexada, reemplazarla por otra. Log Spamming Ahora la mayoría de blogs permiten hacer comentarios, y en estos comentarios añadir una web y un nombre, pues los spammers ponen un comentario en cada post dejando su web, como nombre la palabra clave con la que quieren posicionarse y como comentario la descripción de la web. Esto mismo es aplicable a los libros de visitas. Granjas de Enlaces FFA (Free for All) y link farms: Los FFa son sitios que incluyen tu web totalmente gratis sin ningún orden como un directorio. 4. Prácticas Penalizadas
  • 40. 5. Método de Análisis
  • 41. 5.1. Análisis del Visitante Visitas por Día de la Semana
  • 42. 5.1. Análisis del Visitante Visitas por Hora
  • 43. 5.1. Análisis del Visitante Páginas más Visitadas
  • 44. 5.1. Análisis del Visitante Directorios más Visitados
  • 45. 5.1. Análisis del Visitante 92,02% Fidelidad del Visitante
  • 46. 5.1. Análisis del Visitante 63,11% Páginas vistas por Visita
  • 47. 5.1. Análisis del Visitante 82,46% Duración de la Visita
  • 48. 5.1. Análisis del Visitante Origen (WebTrends) Webtrends Funnel Web Analyzer
  • 49. 5.1. Análisis del Visitante Hace falta un estudio mas amplio que nos indique la procedencia de nuestros visitantes. Origen. Quest vs WebTrends
  • 50. Sitios y Páginas Referentes Webtrends (MTB 11/2004) 5.1. Análisis del Visitante
  • 51. Visitas de Robots Funnel Web Analyzer Webtrends 5.1. Análisis del Visitante
  • 52. Motores de Búsqueda Funnel Web Analyzer 5.1. Análisis del Visitante
  • 53. Palabras y Frases de Búsqueda Funnel Web Analyzer Webtrends 5.1. Análisis del Visitante
  • 54. 5.1. Análisis del Visitante Perfil Tecnológico Sistemas Operativos Navegador
  • 55. 5.1. Análisis del Visitante Errores El más común siempre es el 404 Páginas de disculpas 404
  • 56. 5.1. Análisis del Visitante Herramientas En el mercado existe una amplia oferta de softwtare para el análisis de los ficheros de log generados por los servidores web (Apache, IIS, …) Awstats Asp Stats Funnel Web Analyzer Herramientas
  • 57. Analizar la Demanda Es clave conocer las palabras/frases más demandadas por los usuarios. La oferta de contenidos de nuestro sitio web deberá considerar la demanda de contenidos con el objetivo de atraer visitantes. 5.2. Recolección, Indexación y Recuperación Google AddWords Herramientas Inventory Overture Google Trends Zeitgeist Madrid - Barcelona
  • 58. Analizar la Oferta Las palabras clave deben ser coherentes con el contenido de las páginas Todas las páginas deberían tener palabras clave 5.2. Recolección, Indexación y Recuperación SeInspector googlefight Keyword Density Checker Herramientas Widxl.com
  • 59. Simulación de un Robot (widexl.com y scrubtheweb.com) 5.2. Recolección, Indexación y Recuperación Widexl.com Scrubtheweb.com Search Engine World Herramientas
  • 60. Páginas indexadas Todo sitio web debería aspirar a tener indexadas en los principales buscadores el 100% de sus páginas. 5.2. Recolección, Indexación y Recuperación
  • 61. Posición Palabras Clave/Buscador Analizar la posición de las páginas de un sitio en comparación con la de otros sitios que compiten en las mismas palabras 5.2. Recolección, Indexación y Recuperación Advanced Web Ranking Scrubtheweb.com Web Position Gold Herramientas
  • 62. Vecindario por Contenidos Relacionados 5.3. Vecindario/Competidores TouchGraph Herramientas
  • 63. Vecindario por Tráfico (Alexa) 5.3. Vecindario/Competidores
  • 64. Vecindario en Directorio DMOZ 5.3. Vecindario/Competidores
  • 65. Análisis de Sitios Bien Posicionados Analizar los sitios cuyas páginas aparecen bien posicionadas en consultas con frases de búsqueda en las que nuestro sitio desea posicionar sus páginas Es una de las formas de identificar los competidores OnLine 5.3. Vecindario/Competidores
  • 66. Popularidad por Citación (Page Rank Google) La popularidad mide el número de enlaces a nuestra web. No todos los enlaces aportan valor a nuestro web. Es necesario realizar un seguimiento de los enlaces a nuestro web en los principales buscadores. 5.4. Popularidad
  • 67. 5.5. KYV (Know Your Visibility) tool Proyecto de la UCLM Herramienta para el análisis de la visibilidad
  • 68. Popularidad por Citación (Page Rank Google) 7. Análisis Ejemplo 5.4. Popularidad
  • 69. Popularidad por Citación (Alexa) 5.4. Popularidad
  • 70. Popularidad por Citación 5.4. Popularidad Widexl.com Herramientas LinkTextTool Backlink Builder
  • 71. Popularidad por Tráfico (Alexa) 5.4. Popularidad
  • 73. Sistemas de publicidad de CPC Características Los anunciantes seleccionan palabras clave. Los anuncios aparecen junto con los resultados de la consulta. El anunciante decide el CPC. Este CPC influye en la posición de su anuncio. El anunciante selecciona un presupuesto máximo. Cuando se consume, el anuncio deja de publicarse. Ventajas En los medios tradicionales hay que elegir entre: Llegar a un gran público desperdiciando inversión. Aprovecha la inversión llegando a un número reducido de público objetivo. Accede al cliente potencial en un momento “caliente” próximo a la compra frente a sistemas como la segmentación geográfica o por perfiles de consumo. 8. Posicionamiento Promocional
  • 74. Addwords, Overture, Spotting Media 8. Posicionamiento Promocional Se-bid.com Herramientas Google AddWords
  • 75. Sistemas de publicidad de CPC Problemas Sistema muy sensible al sabotaje. Caso “Assaf Nehoray”: Campaña de marketing online de un marketplace de compañías de transporte saboteada. Se identifico un gran volumen de tráfico y clicks en anuncios sin que se incrementaran las ventas. Puesto que el anunciante marca un coste diario, los anuncios desaparecían en pocas horas tras haber sido bombardeados por clicks mediante un software automático. 8. Posicionamiento Promocional
  • 76. Sistemas de publicidad de coste por click Problemas: Caso Spendonlife.com Muchas URL no existían o pertenecían a la misma compañía. Las URL sospechosas realizaban un volumen de clicks superior a otras similares. Algunas URL accedían al anuncio cada poco tiempo. Muchos visitantes pasaban menos de un segundo en la página publicitada. Muchos clicks provenían de servidores proxy anónimos sin URL referente. La actividad era superior en las compañías CPC principales. 8. Posicionamiento Promocional
  • 78. Conclusiones El posicionamiento es en cierta forma una especie de ciencia experimental , donde los grandes buscadores protegen sus algoritmos de gestión de información con gran celo, obligando a los sitios web a evolucionar en su posicionamiento mediante procesos de prueba y error. 9. Conclusiones Los contenidos de calidad bien estructurados y relacionados se configuran como el elemento clave del posicionamiento. El posicionamiento depende y dependerá de la forma en la que los buscadores organicen la información por lo que se hace recomendable mantenerse informado de las nuevas tendencias, como nuevos algoritmos de búsqueda, nuevos buscadores, etc.
  • 79. Estrategia para un Buen Posicionamiento El posicionamiento de un sitio debería centrase en alcanzar un buen posicionamiento “natural”, no pagado, combinado con acciones puntuales de marketing online. Una buena estrategia debería contemplar las siguientes cuatro acciones clave: Asegurar una correcta indexación Potenciar los enlaces Puntualmente Posicionamiento Pagado Plan de Acción 9. Conclusiones
  • 80. Asegurar una correcta indexación Para maximizar el número de páginas indexadas es necesario respetar ciertas reglas que limitan las posibilidades de diseño y programación pero que facilitan la tarea de recolección de información de los robots. Entre estas reglas destacan las siguientes: 9. Conclusiones Reducir el uso de elementos de diseño que dificultan a los robots la lectura de las páginas. Limitar la utilización de páginas dinámicas que recuperan información de bases de datos y que no pueden ser accedidas por los robots que tan sólo son capaces de navegar a través de hiperenlaces. Programar de una forma limpia y estructurada la página web haciendo un uso correcto de las etiquetas html.
  • 81. Potenciar los Enlaces El texto de los enlaces también son importantes de forma que un enlace del tipo ver ficha es peor valorado que un del tipo Ver Biografía Gauguin. Fomentar la conexión con páginas relacionadas temáticamente constituyendo un comunidad fuertemente interconectada. Establecer una estrategia para la obtención de enlaces de calidad desde otras páginas fuera del web. 9. Conclusiones
  • 82. Una Estrategia de Enlaces (1/2) Primar la calidad a la cantidad Utilizar directorios, portales temáticos y agregadores como : Dmoz, Yahoo, europeanmuseumguide.com o pricerunner.co.uk 9. Conclusiones Posicionarse como Experto: Escribir guías, artículos, consejos, etc., en foros y blogs. Diseñar contenidos de calidad para colocarlos en sitios relacionados.
  • 83. Una Estrategia de Enlaces (2/2) Identificar los sitios de los que queremos recibir enlaces haciendo uso de los enlaces reconocidos por los buscadores: Yahoo: “linkdomain:domain.com”, Google &quot;link:domain.com&quot; Identificar sitios temáticamente relacionados : Yahoo: “related:domain.com”, Google “related:domain.com“ Identificar sitios de interés para el mismo público objetivo. Yahoo: People who visit this.... 9. Conclusiones
  • 84. Posicionamiento Pagado Puntualmente y con el objetivo de promocionar un producto o servicio durante un corto periodo de tiempo y a un determinado público objetivo es recomendable realizar acciones de marketing on line. 9. Conclusiones
  • 85. Plan de Acción Puesto que este análisis se realiza para conocer la posición de nuestro web en Internet es recomendable elaborar un plan de acción en donde tras un análisis inicial se definan unos objetivos razonables. 9. Conclusiones
  • 86. Tendencias Google Yahoo y MSN liderarán el mercado a corto y medio plazo. El mercado demanda mejores resultados naturales, no pagados. Google es el buscador con más experiencia en esta tecnología. Las búsquedas incluirán referencias geográficas. Los buscadores incluirán correo gratuito para establecer nuevos modelos de publicidad. El concepto de búsqueda se ampliará las búsquedas locales. Los modelos de publicidad CPC evolucionarán hacia modelos que aseguren la calidad del click. 9. Conclusiones