Google estudia maneras de lidiar con sugerencias y resultados de búsqueda ofensivos

Google estudia maneras de lidiar con sugerencias y resultados de búsqueda ofensivos
Como Google ha sido criticado por sugerencias de búsqueda como “son mujeres malvadas” o resultados reales que cuestionan si ocurrió el Holocausto, quienes supervisan su motor de búsqueda no están ignorando el problema. Simplemente se están tomando el tiempo para descubrir la mejor y más completa respuesta.( google new)

Esta semana, me reuní con varios ingenieros y ejecutivos involucrados con los resultados de búsqueda de Google, incluido Ben Gomes, vicepresidente de búsqueda central. No hay duda de que Google ha escuchado las preocupaciones. No hay duda de que aquellos dentro de Google en sí están perturbados por lo que se está planteando. Pero el deseo es encontrar soluciones que sean generalmente defendibles, estén enraizadas en la política y se puedan implementar a través de algoritmos tanto como sea posible.

En una declaración que Google me dio después de nuestra reunión, dijo:

El objetivo de la búsqueda es proporcionar los resultados más relevantes y útiles para nuestros usuarios. Claramente, no siempre lo hacemos bien, pero trabajamos continuamente para mejorar nuestros algoritmos. Este es un problema realmente desafiante, y es algo en lo que estamos pensando profundamente en términos de cómo podemos hacer un mejor trabajo. La búsqueda es un reflejo del contenido que existe en la web. El hecho de que los sitios de odio aparezcan en los resultados de búsqueda de ninguna manera significa que Google respalda estas vistas.

Lidiar con la autocompleta
Google no registrará lo que puede hacer, en gran parte porque aún no está seguro de lo que será, solo que sabe que tiene que hacer algo. Tiene dos desafíos principales.

El primero es tratar con sugerencias de búsqueda, también llamadas “autocompletar”. Estas son sugerencias que aparecen a medida que las personas escriben en el cuadro de búsqueda. La función está diseñada para acelerar el proceso de búsqueda, especialmente para aquellos en dispositivos móviles, donde la escritura puede ser difícil. Autocompletar permite escribir algunos caracteres y tener una lista de búsquedas populares en respuesta.

Por ejemplo, al escribir en “el mejor lugar para comer” aparece una sugerencia como “el mejor lugar para comer cerca de mí”, que es útil y ahorra algo de tiempo:

el mejor lugar para comer
Sin embargo, como las sugerencias provienen de búsquedas populares reales que las personas hacen, también pueden revelar verdades desagradables sobre la sociedad. Por ejemplo, algunos preguntan por qué los chinos son groseros:

pueblo chino grosero
Algunos también preguntan si las personas blancas son humanas:

son personas blancas humanas
Personalmente, durante mucho tiempo he sido capaz de filtrar todo lo negativo de tales sugerencias como sea posible. Mi preocupación es que la autosugestión puede presentar cosas que a menudo son estereotipos o que no son necesariamente ciertas para quienes no conocían esas cosas ni deseaban conocerlas. Puede desviar a los buscadores hacia áreas en las que no quieren entrar. Peor aún, como está surgiendo, algunos de los resultados reales que aparecen para estos tipos de sugerencias de búsqueda pueden no proporcionar el equilibrio.

Lo que Google hará aquí es incierto, pero definitivamente es un área que está siendo explorada para el cambio.

Lo que implemente Google no será perfecto. Es por eso que será importante, en mi opinión, que Google también desarrolle un mecanismo fácil para informar sugerencias objetables que se puedan realizar y una política que sea lo suficientemente flexible y sensata como para permitir la extracción manual de lo que el algoritmo no logra captar.

En este momento, debe saber dónde está la página de ayuda de autocompletar para llegar al formulario de informe, donde no está del todo claro por qué Google podría eliminar algo más que si se considera discurso de odio o contenido sexualmente explícito o abusivo. Se necesita más claridad, razones y transparencia.

Si bien las búsquedas sugeridas deben filtrarse mejor, también espero que Google facilite la investigación de algunas de estas cosas a través de Google Trends. Es un ambiente diferente allí, donde las personas buscan deliberadamente ver qué revela la búsqueda de la sociedad. Tristemente, la búsqueda revela algunas cosas feas. Pero la comprensión de que hay personas reales -en números significativos- que pueden tener o tener curiosidad sobre los estereotipos es una de las mejores maneras de entender dónde debe pasar la educación.

Filtrando los resultados?
Lo que se sugiere es una cosa, pero en realidad son los resultados lo que obtienes. Por ejemplo, como se demostró esta semana, Google fue criticado por tener una página de negación del Holocausto enumerada primero en sus resultados para una búsqueda sobre “sucedió el holocausto”, como se muestra en este ejemplo de The Guardian, que primero escribió al respecto :

holocausto de google
¿Cómo lidiar con este tipo de resultados? Ha habido muchas llamadas instintivas para eliminarlo simplemente porque no es correcto desde el punto de vista de los hechos. Pero una eliminación única de la página no resolvería el problema para otras búsquedas y con otros sitios.

También plantea otro desafío. Si la política es que simplemente elimines cosas que no están basadas en hechos, gran parte de la red puede volverse vulnerable a la censura de Google.

Leave a Reply

Your email address will not be published. Required fields are marked *