Chiclayo en Línea.- Solo en el 2023 se bloquearon o eliminaron 206.5 millones de anuncios de potenciales estafas virtuales, así como 273.4 millones de anuncios relacionados a riesgosos servicios financieros y 1,000 millones de promociones de malware (código malicioso) en Google. Descubre cómo se utiliza inteligencia artificial para evitar que estos falsos anunciantes lleguen a los usuarios de internet.
Google utiliza modelos de aprendizaje automático que han necesitado ser entrenados de manera exhaustiva: a menudo requieren cientos de miles, si no es que millones, de ejemplos de contenido que viola las políticas de anuncios en la plataforma.
El 2023 Ads Safety Report -que hace un repaso de las acciones en Google Ads- revela que los modelos de inteligencia artificial son capaces de revisar e interpretar rápidamente gran volumen de contenido, y al mismo tiempo captar variaciones importantes dentro de esos contenidos.
Sin embargo, los estafadores que están detrás de este tipo de anuncios se han vuelto más sofisticados. Ajustan sus tácticas y adaptan anuncios en torno a nuevos productos y/o servicios financieros, como asesorías en inversiones o monedas digitales, para estafar a los usuarios.
Es por ello que Google ha integrado Gemini, el modelo de inteligencia artificial más capaz del gigante de internet, a esta misión de combatir los anuncios que podrían causar estafas virtuales o fraudes informáticos, así como robo de información de los usuarios.
Logros al usar inteligencia artificial en Google Ads
En general, durante al año pasado, gracias al uso de inteligencia artificial , se logró bloquear o eliminar más de 5,500 millones de anuncios, un poco más que el año anterior, y 12,7 millones de cuentas de anunciantes, casi el doble que en 2022.
La mayoría (1.04 mil millones) estuvo relacionado a incumplimiento de las políticas, así como de abuso de la marca registrada (548 millones). Los juegos de apuestas (192 millones) y anuncios de salud (80 millones) también fueron bloqueados o eliminados a lo largo del año pasado.
También se restringieron más de 2,100 millones de publicaciones de anuncios sobre contenido sexual, una cifra un poco superior a la de 2022.
En cuanto a la lucha contra las infracciones graves o generalizadas, se evaluaron más de 395.000 sitios web, un aumento notable con respecto a 2022.
Además, se restringió la monetización en sitios web de contenido sexual (1.8 mil millones), contenido de riesgo (104 millones), armas (61 millones), contenido sensible (40 millones), juegos de apuestas (38 millones) y malware o programas maliciosos que pueden causar otros delitos informáticos (25 millones).
Para Google, el impacto de la inteligencia artificial en esta labor se traduce en que, el año pasado, más del 90% de las acciones de cumplimiento, a nivel de página de editor, comenzaron con el uso de modelos de aprendizaje automático, incluidos los últimos grandes modelos de lenguaje (LLM).
Si se tratara de un error, el anunciante puede apelar a una acción de cumplimiento y un equipo humano revisará el caso. (Fuente: Andina)
Comentarios