La coevolución de la relevancia y lo social

Muy pocos discuten, a día de hoy, que la aparición de Google en 1998 y su rápido ascenso al número uno de los motores de búsqueda produjo un cambio sustancial en la manera en la que se plantea la web en su conjunto.

Con Google aprendimos la importancia de lo social: el destello de brillantez que hizo a Larry Page y Sergey Brin abandonar su doctorado en Stanford para emprender Google fue el darse cuenta de que nada puede evaluar la relevancia mejor que un algoritmo social, reflejado fundamentalmente por el número de enlaces entrantes a una página con un texto determinado. Desde que Larry y Sergey tuvieron esta revelación, todo ha girado en torno al mismo tema: ser los mejores cualificando, refinando y ajustando un algoritmo social. Por un lado, esto permitía ir mejorando progresivamente los resultados obtenidos por el usuario, introduciendo múltiples modificadores para cualificar, refinar y ajustar el algoritmo. Por otro, posibilitaba competir con aquellos que se empeñaban en falsear sus resultados para poder situar falsamente como más relevante aquello que no necesariamente lo era. Porque si algo caracterizaba al algoritmo con respecto a los buscadores anteriores era la posibilidad de alejar el control de las manos del propietario de la página, y entregárselo a un entorno social más difícilmente manipulable. Desde la aparición y popularización de Google, toda la web funciona como una red social: nuestra visibilidad y posicionamiento dependen de lo que hace el entorno que nos rodea. Solo quienes entienden bien este axioma son capaces de moverse con éxito en la web de hoy.

Ante una realidad así, todos los esfuerzos de Google se centraron en eso: en mejorar el algoritmo, en investigar más que nadie en ese sentido. La frase de Sergey Brin en IE Business School cuando él y Larry vinieron a recoger su MBA Honoris Causa en el año 2003 es claramente sintomática: sabemos que en algún sitio, en algún garaje, alguien está investigando mejores maneras de evaluar la relevancia, y si surge un cambio, sabemos también que los usuarios carecen completamente de fidelidad (no entrecomillo, porque recurro a mi memoria, que no siempre es completamente fiel). Y durante muchos años, Google ha permanecido relativamente tranquila sentada en su trono: todos sus competidores relevantes jugaban al mismo juego que ella, todos contaban enlaces entrantes mediante algoritmos que, por lo general, iban varios pasos por detrás del suyo. Por supuesto, había más factores: tamaño de catálogo, eficiencia en las operaciones de base de datos, incluso eficiencia energética, y también en ellos Google iba jugando y ganando. Una década intensa, pero de una gran hegemonía, y básicamente, medida en todo momento con las mismas reglas.

Hacia julio de 2008, las cosas se empezaron a complicar. La compra de Summize por parte de Twitter hizo que desde Mountain View empezasen a ver a la inofensiva empresa de los ciento cuarenta caracteres como algo diferente, como un competidor posiblemente peligroso en un entorno que estaba tomando una importancia cada vez mayor: la búsqueda en tiempo real. Un algoritmo basado en los enlaces entrantes podía ser muy bueno a la hora de evaluar la relevancia de un listado de páginas, pero no necesariamente tan bueno cuando eso se medía a gran velocidad. Los enlaces podían tardar varias horas en aparecer y en ser indexados, lo que convertía a Google en un jugador lento: los temas relevantes en un momento dado ya no aparecían en el buscador, sino en los trending topics de Twitter, clasificados y categorizados mediante la integración de Summize en Twitter Search.

Fue precisamente la integración de Summize lo que llevó a Twitter a convertirse brevemente en una empresa rentable, cuando tanto Microsoft como Google cerraron acuerdos con la empresa el mismo día, el 21 de octubre de 2009, para asegurarse el poder integrar el timeline de Twitter en sus resultados de búsqueda. La jugada tenía mucho, mucho más calado del que parecía, se estaba moviendo mucho más de lo que inicialmente daba la impresión, y Bing estaba empezando a mostrarse como mucho más que un simple competidor me-too. De hecho, una gran parte del fallido movimiento de Google con Buzz puede explicarse por el intento de la compañía de construir rápidamente un sistema propio que le permitiese mejorar la relevancia del buscador y competir con Twitter de cara a la búsqueda en tiempo real. Curioso mundo en el que una empresa casi recién constituida y sin modelo de negocio puede poner patas arriba los planes de un gigante.

Pero, en realidad, las posiciones de Microsoft habían empezado a construirse bastante antes, cuando a mediados de 2006 decidió pujar una cantidad absolutamente desproporcionada por hacerse con un contrato de publicidad con Facebook (más bien, para que no fuese Google quien se hiciese con él), que duró unos tres años y que se cerró con importantes pérdidas económicas. Durante tres años, Microsoft hizo poco más que perder dinero poniendo anuncios completamente irrelevantes en las páginas de Facebook, hasta que Zuckerberg se hartó y decidió que sus prioridades cambiaban e iba a hacerse cargo directamente del tema. Pero esas pérdidas de la compañía de Redmond, en realidad, no eran importantes: lo sustancial, lo que más adelante probaría su verdadero valor, era la otra parte del acuerdo, la que había llevado a Microsoft a invertir $240 millones por una participación del 1.6% en la red social.

¿Que convertía a Facebook en un actor importante en la búsqueda? El lanzamiento del botón «Like» y, sobre todo, su extensión hacia fuera de la red social, su universalización como herramienta en toda la web. Con la rápida popularización del «Like» en toda la web, Google vio cómo, en muy poco tiempo, surgía un sistema que podía eventualmente convertirse en un indicador mejor que los enlaces entrantes de la relevancia de algo en la web. Con la posibilidad, además, de servir mucho mejores resultados en las búsquedas en tiempo real (se tarda mucho menos en hacer un «Like» que en establecer un enlace). Simplemente analizando las series temporales, el número total y las pautas generadas por los «Like», Facebook podía convertirse en un actor importante en la búsqueda. Pero ese, en realidad, no era el negocio de Facebook. Así que Google se fue a hablar con ellos para estudiar la posibilidad de utilizar los datos de los «Like» como parte de su algoritmo. ¿Respuesta? No. Y lo malo no era el no, sino lo que lo acompañaba: la constatación de que era algo que ya estaban trabajando con otra empresa, ni más ni menos que con Microsoft, bien posicionada con una participación en Facebook.

La posibilidad de un Bing compitiendo con Google en base a una ventaja real en algo tan determinante como los resultados en tiempo real es lo que permite entender de verdad el lanzamiento de algo como Google+. Un desarrollo rapidísimo de un sistema de +1 para competir con los «Like» de Facebook, y toda una red social, desarrollada intentando corregir aquello de lo que los usuarios más se quejaban en Facebook, para intentar competir en ese terreno. Google+ se convirtió en una prioridad total y cambió muchos esquemas en la compañía. Según algunos, demasiado.

Independientemente de lo que llegue o no llegue a ser Google+ con el tiempo – hablamos de toda una compañía indudablemente potente empeñada en convertirlo en un éxito y, en mi caso, es ya la red social en la que más seguidores tengo y en la que más actividad recibo – no cabe duda que ha significado un fortísimo cambio en la compañía: el de pasar de ser quien lidera en un área, a ser quien sigue. En el caso de Google, que siempre se ha preciado de desarrollar su estrategia sin mirar demasiado a lo que hacían los demás, un cambio extremadamente fuerte. Tanto con Twitter como con Facebook, Google ha tenido que forzar una reacción, que desarrollar sistemas en modo reactivo, algo a lo que la compañía no estaba decididamente acostumbrada.

¿Lecciones? Todo indica que, por más que busquemos, no hay ninguna manera de encontrar un mejor criterio de evaluar la relevancia que el criterio social. El peso de la frase «el hombre es un ser social» y la evidencia de que nada mejor que lo que hacen lo que nos rodea para evaluar la relevancia lleva a que nadie parezca estar explorando vías que no vayan en ese sentido. La única discusión parece ser las variables que usamos para medir esa actividad social: los enlaces entrantes (en el caso de Google), las menciones en mensajes breves (Twitter) o el uso del botón «Like» (Facebook). El peso de lo social en la búsqueda, lejos de reducirse, ha aumentado notablemente en los últimos años. ¿Seguirá siendo así? ¿Seguirá lo social y la medición del comportamiento colectivo siendo el mejor indicador de relevancia que conocemos y manejamos? La pregunta es compleja, porque el comportamiento y las reacciones de la colectividad no están necesariamente a salvo de problemas y complicaciones. El efecto del amarillismo y el sensacionalismo, por ejemplo, la capacidad de manipulación, o la evidencia de que la relevancia y la importancia de algo no es algo que necesariamente deba decidirse por consenso social («la verdad no emerge necesariamente del consenso») son elementos que llevarían a cualquiera a plantearse otros mecanismos de evaluación diferentes, más basados en hechos intrínsecos y menos en su interpretación por las personas.

Google vivió muy tranquila mientras el mejor indicador de relevancia fueron los enlaces entrantes y todos sus competidores jugaban a su juego. La aparición de Twitter y Facebook con posibles indicadores alternativos o complementarios ha interrumpido esa tranquilidad. Pero seguimos hablando de lo mismo: de relevancia evaluada en función de indicadores sociales, de lo que hacen los que nos rodean. ¿Seguirá ese siendo el caso dentro de otros diez años?

15 comentarios

  • #001
    Jordi - 25 marzo 2012 - 16:22

    Qué gran artículo, y por karmacracy, debo decir que me afecta de lleno y he pensado mucho en esto. Más cuando salió Google +. E incluso me asombré lo rápido que se movía todo cuando vi los resultados de Google+ que decía «personas que te pueden interesar»…

    Para mí, la relevancia es algo social desde el momento en que la relevancia la dan las personas. La relevancia es algo subjetivo, y por tanto, para alguien algo es relevante y para otros no. Y también, para algo, alguien es relevante y para otra cosa no.

    Desde ese punto de vista, buscar un indicador absoluto que establezca si algo es relevante o no creo que es un error de origen. Puede que ese indicador diga que «eso es relevante para una mayoría de personas», pero para otras personas, eso puede no ser relevante.

    También me gustaría diferenciar los algoritmos de relevancia en torno a dos entidades: personas y contenido. Se puede estudiar la relevancia de ambas entidades, pero el modo de evaluarlo debe ser diferente.

    Por ejemplo, en karmacracy usamos «el número de personas que te clican lo que envías» para evaluar si una persona es relevante. Y «el número de personas que comparten un contenido» para evaluar si un contenido es relevante. Sin embargo, en el contenido hemos ido más allá, y evaluamos si «un contenido es relevante para ti, en función de si las personas que haya compartido ese contenido es relevante para tí».

    Echo de menos en las redes sociales actuales (Facebook, Twitter y Google+) esa aproximación de subjetivizar la relevancia.

  • #002
    Isabel - 25 marzo 2012 - 17:07

    Enrique :

    Brillantísimo post. Mira que soy dura, a veces, contigo, pero con un post como éste se te «perdona» todo. Te quería preguntar algo (de alumna a profesor) ¿Qué peso crees que tendrá la web semántica en el futuro inmediato? Y más inmediato de lo que algunos creen puesto que tanto Facebook como Google se han dado cuenta de su importancia y ya están utilizando la semántica. Hablemos ya de la web 3.0…
    Gracias (espero que esta vez sí me respondas :-))

  • #003
    Jose Luis Portela - 25 marzo 2012 - 17:15

    Dos puntos:

    1. Para mi hay una información muy importante que google puede medir ademas de la relevancia de aparecer en la red como marca o como nombre y es el dato de que cuando alguien desea algo, lo introduce en la venta de google. Por tanto ellos son capaces de medir on time, y por IP, cual es la demanda real del mundo en el que vivimos. Esta información hoy por hoy no la tiene ni facebook ni twitter.

    2. El estudio de mercado de 5 fuerzas de Porter, siempre habló de barreras de entrada de nuevos actores en las industrias. Imaginar por ejemplo el caso del petroleo, el sector con los activos mas caros del mundo. Difícil de entrar….(por el momento). Ahora si vemos otros muchos sectores, ahora con las nuevas tecnologías por un lado y la mayor información de los clientes por otro, hace que los clientes estén a un solo click de cambiar. Me impresionó escucharte el otro día como el mayor banco de África es ahora una compañía de móviles…y otros miles de ejemplos muy bien redactados en tu libro. Esta claro que el mundo cada vez será menos predecible y estable en términos de poder económico.

  • #004
    detective privado - 25 marzo 2012 - 17:36

    Excelente artículo.

    Una lástima que sea tan difícil para las empresas de nuestro sector conseguir la tan codiciada «relevancia social» de la que hablas. Nuestros clientes no hacen público (como es lógico y comprensible) el uso de nuestros servicios, ni pueden mostrar su grado de satisfacción y ya no digamos lo de enlazarnos.

    Saludos

  • #005
    David - 25 marzo 2012 - 18:50

    Como de bien entiendes la Red !!!

    La relevancia social no será sustituida por otros criterios próximamente y eso es porque queremos resultados con masa crítica detrás. Ante esta masa, nada pueden caudillos, medios o empresas y todo ello nos hace mas libres, que es por lo que Internet es nuestra salvación.

  • #006
    Jesús - 25 marzo 2012 - 19:33

    #003 La verdad es que sería muy interesante que al igual que tenemos los TT en Twitter tuvieramos un cuadro con «lo más buscado» del momento

  • #007
    Víctor V. Valera - 25 marzo 2012 - 20:03

    Interesante artículo sobre como ha sido el proceso que fundamentalmente ha llevado a Google hasta las puertas de la Web 3.0 o Web Semántica y hacia su próxima evolución de su motor de búsqueda, en lo que se ha venido a llamar «Google se prepara para pensar como un humano» (http://ow.ly/9RHyH): este sistema analiza el significado de las palabras y su funcionamiento y se acercará más al concepto «de cómo entienden el mundo las personas», según ha explicado Amit Shinghal, ejecutivo de Google.

    Además Google integra ya desde hace un par de meses Google+ en sus resultados de búsqueda (http://ow.ly/9RHHu) en los cuales, en vez de ofrecer miles de resultados que provenían de cualquier página web, Google pretende mostrar los resultados compartidos por los contactos de la red social con lo que pretende acercarse más aún si cabe a la relevancia social que muy bien has expuesto en este artículo.
    Ambos aspectos son fundamentales en la Curación de Contenidos, pues un Content Curator o Curador de Contenidos es para mi de una manera breve o poco exhaustiva aquel Profesional de la Información 2.0 que filtra, genera y distribuye contenidos digitales relevantes (http://wp.me/p2iXnH-1v) ya que no sólo se trata de alguien que «consume contenido, lo filtra, lo recopila, y lo comparte» (citándote a ti mismo en tu artículo «Sobre la content curation y su importancia» – http://ow.ly/9RIu9) sino que además esos contenidos de calidad deben tener la mayor relevancia (incluida la relevancia «social») posible y además deben de tratar de acercar esos contenidos todo lo posible a las personas.

  • #008
    Rai - 25 marzo 2012 - 20:33

    El primer párrafo me ha traído a la memoria lo que yo usaba por 1997-1998 y la verdad es que mejor que dar una parrafada de abuelo cebolleta dejo un enlace para que sean los protagonistas los que cuenten su historia.
    http://donde.uji.es/themakingof.html
    Puede que me haya desviado un poco del tema que has descrito Enrique, pero en los tiempos en los que se debía haber apoyado la innovación y apoyar a los emprendedores…. se apoyo la especulación del ladrillo ya que coincide en esa misma época.
    ¿Podríamos estar hablando de portales buscadores y redes sociales españoles, materia prima de la gris había no?

  • #009
    Jose - 26 marzo 2012 - 00:38

    Coincido con Isabel: es por artículos como éste, que de repente te explican algo que está ahí y no habías detectado, por lo que merece leerte cada día.
    Gracias!

  • #010
    Gorki - 26 marzo 2012 - 00:48

    De momento (pues hay que revalidarlo día tras día) Google es el «rey» de las búsquedas y Twitter ha acertado con los «trending topic». En cuanto a Facebook, mi opinión es que se queda acartonada, cada día trae menos cosas de interés, no se si debido a Google+ o por que cada dia le damos un uso más insustancial, pero yo no saco de él gran rendimiento.

    Los Trending Topic no son los temas de interés sino las «marujadas» que se ponen de moda, no se si se debe a que me interesan cosas impopulares o si el algoritmo trae cosas insustanciales. Por poner un ejemplo, los cinco primero «trending topics» actuales son #PelisTuiteras, #6HOURS, #LibrosQueDebesLeerAntesDeMorir, Andalucía y Buy Born This Way Tomorrow. Sinceramente de los cinco a mi solo me interesa Andalucía.

    El buscador de Google, siendo hoy el mejor que existe y sobre todo, mejor que Bing, que es igual, pero peor, discrepo «de que nada puede evaluar la relevancia mejor que un algoritmo social». Considere que es mejorable. Google mide la «popularidad» y puede ocurrir que haya cosas de gran calidad de interés general para todos, que simplemente no están linkadas y que por tanto Google no valora.

    Existe el pozo de la invisibilidad, (mas o menos la tercera pagina de Google), quien cae cerca del remolino que existe alrededor de la boca, es succionado hacia el pozo, no es conocido y como no es conocido no se le linka y en consecuencia es cada vez menos conocido y en consecuencia relegado con mas fuerza hacia el abismo de lo invisible, nientras que quien por la razón que sea, (a veces con puro SEO), sa aleja lo suficiente de ese remolino, comienza a ser linkado y cada vez es más visible siendo cada vez más linkado.

    Creo que el «algoritmo social» pusiera ser superado por algún «algoritmo de calidad» capaz de medir la calidad intrínseca de las páginas web con criterio «humano», nosotros somos capaces de discernir de un vistazo, si la página que hemos abierto es interesante o no, ¿por qué no va a ser capaz de hacerlo un sistema mecánico?

    El día que alguien sea capaz de valorar de forma intrínseca las páginas web, desbancará a Google, (Que pena que yo no sepa hacerlo, porque me volvería terriblemente millonario).

  • #011
    jubete - 26 marzo 2012 - 08:34

    Un post muy bueno. Pocas veces los post sobre redes sociales son realmente interesantes, pero este lo es.

  • #012
    john - 26 marzo 2012 - 08:57

    Muy buen análisis Enrique… gracias. Tal vez para profundizar deberíamos tomar en cuenta también como «relavancia social» el acceso masivo a apps que están «encerradas» en las plataformas IOS/Android no?. Por otra parte, todo indica que HTML5 presenta una opción «out-platform dominantes» de primer orden para desarrolladores, por lo que su repercusión social podría alterar de nuevo los algoritmos que buscan relevancia.
    En definitiva, esto está más vivo que nunca…

  • #013
    Paolo Mercale - 26 marzo 2012 - 11:45

    Buen post, sí señor, completamente de acuerdo. De todas formas, no nos olvidemos que el hecho de que ha Google le estén ganando la partida (de momento) en el aspecto social de la red no quiere decir que esté en dificultades. Google hoy día es muchísimo más que un motor de búsqueda y ofrece muchas alternativas gratis y con una calidad más que aceptable a los usuarios.

  • #014
    Miguel A. Tovar - 26 marzo 2012 - 13:06

    Muy buen post y muy oportuno. Gracias.

  • #015
    Arshak - 2 abril 2012 - 17:28

    Antes de que conociera Google (como buscador), utilizaba el de Yahoo, que era el líder, por lo menos en Argentina, en ese entonces. Luego probé con Google y las búsquedas iban más orientadas a lo que quería encontrar, el algoritmo no contaba la cantidad de «palabra buscada» que se encontraba en la página para que apareciera como primero en la lista de búsqueda, sino la cantidad de relevancia que tiene esa «palabra buscada» en la página.

    Google siempre crea nuevas herramientas pensadas en el usuario, tiene un código libre y prioriza al usuario. Facebook hace todo lo contrario, tiene intereses más egoístas, hace cambios que a muchas personas no les gusta y no lo pueden rechazar, tiene un interfaz poco amigable con el usuario, etc. Microsoft sufre de las antipatías, vende productos de calidad media a precios altos, Google ofrece productos similares gratis y Apple productos de excelente calidad (más caros, pero vale la pena). G ganó terreno al ofrecer alternativas pensadas en quién las usa, y cuando en los negocios alguien ofrece tu producto más barato o hasta gratis, la competencia es más agresiva.

Dejar un Comentario

Los comentarios están cerrados