Un vídeo está sacudiendo los cimientos de Internet en los últimos días, un vídeo que se adentra en un aspecto más de un debate que es antiguo y con visos de perdurar tanto como lo haga el gigante Google.
Este no es otro que el debate sobre la imparcialidad y equidad de Google en sus criterios para seleccionar, posicionar y mostrar la información que recopila. Debate que ha ido de la mano a veces de los intereses políticos o geoestratégicos que operarían en los aledaños de la compañía californiana.
En esta ocasión la polémica gira en torno a las recomendaciones de búsqueda que Google ofrece mientras introduces los criterios por los que quieres buscar. SourceFed, una filial de Discovery Communications, LLC, afirma haber demostrado que la función de autocompletar de Google ha escondido sugerencias negativas sobre Hillary Clinton, mientras que no ha hecho lo mismo con su rival y compañero en las filas demócratas Bernie Sanders, así como tampoco con el candidato republicano Donald Trump.
En concreto los autores del vídeo intentan demostrar esto en base a sugerencias negativas que no aparecerían al buscar información sobre hechos oscuros de la vida y carrera de la candidata Clinton, así como comparaciones con otros buscadores, como Bing y Yahoo, donde éstas si lo harían.
El vídeo se ha convertido en viral, e incluso ha provocado declaraciones del lado republicano, aunque lo extraño sería que Trump hubiese mantenido su boca cerrada.
Google ha desmentido la manipulación pero no la censura, afirmando que “Nuestro algoritmo evita mostrar una prediccion de búsqueda que sea ofensiva o denigrante cuando se muestre junto al nombre de una persona”. Tiene toda la lógica para conjurar cierta ética y, también, para evitar posibles demandas.
La cuestión es que podéis comprobarlo ahora mismo escribiendo “Charles Manson” o “Adolf Hitler” y comparéis que esta funcionalidad de Google efectivamente se comporta como describía su portavoz. Pobres criminólogos e historiadores, les toca escribir más..
En mi opinión toda la argumentación se sujeta con pinzas y por otro lado las sugerencias de búsqueda no son lo mismo que los resultados de la misma.. Aunque con la hiperpersonalización presente y futura, y un algoritmo de ordenación opaco por necesidad, no descartemos que pueda a llegar a ser tres cuartos de lo mismo, si no lo es ya.