
Google anunció que bloqueó más de cinco mil 100 millones de anuncios que violaban sus políticas en 2024, gracias al uso intensivo de la Inteligencia Artificial (IA).
De acuerdo con el Ads Safety Report 2024 de la compañía, los avances en Modelos de Lenguaje Grande (LLMs) han revolucionado la detección y prevención de anuncios maliciosos, fraudes y estafas en sus plataformas.
“Nuestros últimos LLMs operan con mucha más eficiencia, lo que nos permite reconocer amenazas, identificar patrones de abuso y distinguir negocios legítimos de estafas con mayor rapidez y precisión”, explicó el gerente general de Ads Safety de Google, Alex Rodríguez.
La compañía realizó más de 50 mejoras en sus LLMs durante el año, optimizando la revisión de contenido y permitiendo a los equipos humanos enfocarse en problemas más complejos.
Los modelos impulsados por IA contribuyeron a la detección y aplicación de políticas en el 97 % de las páginas donde Google tomó acción, restringiendo anuncios en mil 300 millones de páginas y tomando medidas a nivel de sitio en más de 220 mil sitios web.
El programa de verificación de identidad de anunciantes también jugó un papel clave, verificando la identidad de más del 90 % de los anunciantes en más de 200 países.
Ello resultó en la suspensión de 39.2 millones de cuentas, la mayoría antes de que pudieran publicar anuncios.
En 2024 hubo un aumento de anuncios con deepfakes, ante lo que Google respondió con un equipo dedicado y actualizó su política de tergiversación, suspendiendo permanentemente 700 mil cuentas y reduciendo en 90 % los informes de estafas con deepfakes.
Con más del 50 % de la población mundial participando en elecciones, Google también reforzó sus medidas para la publicidad política, siendo la primera compañía en exigir divulgaciones para contenido generado por IA en anuncios electorales, verificando a más de ocho 900 nuevos anunciantes políticos y eliminando 10.7 millones de anuncios de cuentas no verificadas.