Tagmetrics

Adobe entra en el mercado del análisis web

SiteCatalyst

Adobe acaba de comprar Omniture, una empresa de análisis web, por 1800 millones de dólares. Una empresa creada en 1996 y que cuenta con 1200 empleados. El motivo de la compra es porque los clientes de Adobe demandan una manera efectiva de monetizar sus productos online y Omniture, con alguna de las herramientas que ofrece, es líder en este segmento.

Al parecer, Adobe no piensa en utilizar una nueva herramienta o producto para ello, si no que pretende integrar alguna de las herramientas de Omniture (o funcionalidades de ellas) a programas conocidos de la compañía como el Dreamweaver o Flash, aplicaciones que entraron a formar parte de Adobe cuando realizó la última compra por 3000 millones de dólares por Macromedia.

Uno de los products estrellas de Omniture es SiteCatalyst una de las grandes herramientas web que pueden existir en el mercado y con funcionalidades que van hasta la ‘medición social’ como seguimiento de marcas en twitter o popularidad de una aplicación en Facebook (por citar algunos ejemplos)

Más info | Omniture PR

Utilización de herramientas de tendencias para captar tráfico

Existen multitud de herramientas de tendencias. Una forma de darles utilidad es utilizarlas para captar más tráfico hacia nuestros sitios, aunque aquí en España nos sirvan bien pocas para ese fin. Este incremento de tráfico puntual podemos utilizarlo para monetizar más todavía nuestras páginas.

La idea es intentar averiguar que búsquedas son más realizadas durante una época concreta del año, podemos probar por ejemplo con Google Trends, que permite ver las tendencias en un rango de fecha determinada y por localización geográfica y utilizar esa información para tener contenidos de estas características durante un determinado momento.

Podemos hacer una prueba buscando algo común en Google Trends, por ejemplo Flores, utilizamos la segmentación geográfica para determinar España (en mi caso) y ver en que fechas del año se utiliza más esa búsqueda. También segmentamos por tiempo y aumentamos la búsqueda a los doce últimos meses.

Google Trends: Flores

 Podemos ver por ejemplo picos en fechas señaladas, en la festividad de todos los santos, en el día de San Valentín, y en el día de la madre. También vemos un par de picos más, entre septiembre-octubre y en diciembre. Supongo que será porque en Septiembre-Octubre se concentra un buen número de bodas y Diciembre por el tema de las navidades.

Continue reading

Medición común en Nielsen y la OJD

Me acaba de llegar un correo de Nielsen//Netrating donde afirman que han llegado a un acuerdo con INTROL/OJD, por el cual este organismo auditará sus datos de medición, acreditando la veracidad y fiabilidad de la información obtenida a través de sus análisis de tráfico web.

Nielsen//NetRatings y OJD comunicarán a sus clientes en un plazo breve de tiempo los detalles del nuevo modelo de funcionamiento y el proceso de transición al mismo.

El objetivo y la ventaja del acuerdo, es que por fin tendremos una herramienta de medición y comparación única, y no como sucedía antes donde no eran comparables los datos de Nielsen con los de la OJD. Estoy convencido que más de un medio se llevará una sorpresa cuando vea los datos medidos con la misma herramienta.

Debate global sobre el aleteo de las mariposas

Enrique Dans publicó en Libertad Digital su columna titulada El Efecto Mariposa que está dando que hablar.
Catuxa, en Deakialli comenta algunos puntos, Michel los replica y lo mismo hace JJ, a quien Enrique contesta en su último post

Enrique Dans:

“¿les resulta fiable un algoritmo que tiene en cuenta los enlaces que se dirigen a una página, sin tener en cuenta, ¡Oh, pequeño detalle!, que esa página puede tener dos, o tres o más direcciones asociadas? La página es exactamente la misma, no hay dos ni tres páginas: simplemente posee diversos nombres. Pero por supuesto, algunos enlaces irán hacia uno de los nombres, y otros hacia el otro, de manera que la página se encontrará penalizada en sus índices de popularidad simplemente porque sus vínculos entrantes estarán divididos en dos, o en tres páginas hipotéticas que son, en realidad, la misma.”

Michel, en el telendro le contesta algo que es cierto. Esto se soluciona como dice Googleguy (el nick de uno de los ingenieros de Google en varios foros SEO) mediante redirecciones 301.

Traducido al php son 2 lineas de código:
header("HTTP/1.1 301 Moved Permanently");
header("Location: http://www.dominioprincipal.com/");

Enrique Dans:

“En otro de mis experimentos (mi página está creada por mí mismo, y yo disto mucho de ser un programador experto), puede verse como una página alcanza importantes penalizaciones por el hecho de no utilizar hojas de estilo, usar tablas o tener un código mejor o peor escrito. Desde el punto de vista informático, “por ser fea”, sin que ello tenga además que ver con la estética de la página como tal. Pero, digo yo… ¿no estábamos hablando de relevancia del contenido? Entonces, ¿por qué se atreve un buscador a penalizar a una página “por fea”, independientemente de que su contenido pueda ser el mejor del mundo o el más adecuado a la búsqueda que alguien ha introducido?”

No penaliza, ayuda a una mejor indexación, el símil que pone Michel es muy válido:

Si llevamos a una imprenta un libro y al maquetarlo confunden el orden de los capítulos o se pegan unas páginas con otras al imprimirlo o símplemente le ponen un candado al libro, a los lectores les llegará el mismo contenido que escribió el autor, pero no podrán entender la obra en su conjunto y por tanto catalogar su valía. Lo mismo ocurre con una web. Si usamos una intro en flash le ponemos un candado a nuestra web, si algunos enlaces no pueden seguirlos los robots estamos “pegando” nuestras páginas, y si usamos mal las tablas o los marcos estaremos “desordenando” nuestro contenido.

Aunque Enrique, no quiere amoldarse a la tecnología, quiere que la tecnología se amolde a él.

También, por cierto, difiero en lo del CSS: ¿qué es eso de que yo tengo que ponérselo fácil a la máquina para que me mida bien??? Ni de coña… que la máquina se las arregle para medirme bien esté yo quietecito, dando saltos o haciendo el pino. Y si no, es que la máquina es mala. A ver si ahora va a resultar que la máquina manda más que yo y soy yo el que tengo que adaptarme a ella.

Estoy de acuerdo en que la tecnología debería ponernos las cosas más fáciles, pero si no hay mejor tecnología debemos amoldarnos a lo que hay.
Con esta misma postura, toda tecnología es mala.

Sigue Enrique, en la contestación a JJ de Atalaya:

¿en qué extraño altar dorado ha puesto el mundo a Google, que ahora resulta que las normas, en vez de marcarlas las personas, las marca Google? Me resulta patético ver a todo el mundo optimizándose para salir guapo delante de ese pedazo de miope llamado Google, y ver que haciendo determinadas operaciones se pueden ganar varios puntos de pagerank, ¡¡con el mismo contenido en la página!!

Ni Google es Dios, ni tampoco el demonio. El PageRank es un invento de Google y por tanto mide lo que quiera que mida y como quiera medirlo. El
PageRank es un factor off the page, por tanto no tiene nada que ver la url de la web, o el contenido de la misma, si no los enlaces recibidos (en rasgos generales) a esa url. Si recibimos hacia dos urls distintas, estamos haciendo dos mediciones distintas.

Sigue Enrique:

Criterios que todo el mundo aparentemente da por buenos, como el sacrosanto PageRank de Google, la cuenta de vínculos entrantes a una página web que lleva a cabo Technorati o los rankings de popularidad de Alexa son medidas completamente burdas, groseras, carentes de inteligencia, que responden únicamente al deseo de intentar reducir la incertidumbre, pero que lo hacen, en general, bastante mal.

Y esto nos lleva a la segunda parte, en la que difiero muchísimo más: el sacrosanto pagerank. Dice JJ que “Si un sitio tiene más enlaces entrantes, tiene más pagerank”. Mentira. Mentira absoluta y falsedad documentable. Sin ánimo de llevar el tema a mi caso personal (lo hago porque es un caso que conozco bien y tengo controlado), esta página que estás leyendo en este momento tiene un pagerank de 6. ¿Se debe eso a que tiene, según Technorati, 173 vínculos de 138 fuentes? Puede ser, pero eso es, en primer lugar, otra mentira. Primero, porque la página, al tener ya no dos URL, sino cuatro, tiene en realidad muchos más vínculos entrantes, y un PR que parece un maldito tiovivo.

Algo que debería quedar claro es que la forma de medir la crea Google y debemos entender su medición. Si cogemos una regla sin entender su medición, de que nos sirve, si la dimensión resultante será errónea.
Los Backlinks (vínculos hacia nuestra url) que cuentan son los que tiene google en sus datos, no los que tiene Technorati. Y Google no muestra TODOS los backlinks que tenemos hacia nuestra url y nunca lo ha hecho (ni con el comando link:dominio.com), porque hasta Google sabía que este dato llegaría a ser manipulable.
Tampoco es tan sencillo como a mayor número de backlins mayor pagerank, porque también es falso. Al principio de los tiempos del pagerank, apareció este dato sobre el:

El valor del page rank de un enlace se calcula cogiendo el PR de la página que te enlaza y multiplicándola por 0.85 y dividiendolo por el número total de enlaces en esa página.

Aunque la ponderación es diferente de como era en un principio la base sigue siendo la misma, no es lo mismo un enlace de un PR10, que de un PR0, y sigue siendo un enlace.

La forma que Google ha basado (hasta ahora) uno de sus pilares del algoritmo de búsqueda fué el PageRank, que según Google se basaba en la exclusiva naturaleza democrática de la web, aunque ni ellos se lo creían.
Lo único que ha modificado es la ponderación de ese factor en el algoritmo (uno de los más de 100 famosos factores que influyen en el posicionamiento) o hasta llegar a descartarlo, quien sabe.

© 2019 Online

Theme by Anders NorénUp ↑