Meta, la compañía detrás de redes sociales como Facebook e Instagram, anunció que a raíz del aumento de estafas cibernéticas desde inicios de la pandemia, está haciendo pruebas para incorporar una tecnología de reconocimiento facial que detecta publicaciones fraudulentas de famosos.
Monika Bickert, vicepresidenta de políticas de contenido de Meta, habló sobre este inconveniente al portal “Infobae” y puntualizó que es una amenaza a la privacidad, dónde las celebridades no quieren que sus seguidores sean estafados a su nombre.
Cómo Meta planea identificar deepfakes de famosos en Instagram y Facebook
Para reconocer los deepfakes o videos falsos de famosos, Meta usará su sistema de revisión de anuncios, que analiza millones de publicaciones diarias en las plataformas de la compañía.
El proceso de Meta se hace de forma automática y analiza factores como el texto, la imagen o el video teniendo en cuenta el aprendizaje automático de la inteligencia artificial con cantantes, deportistas u otras celebridades del ambiente.
“Este esquema es comúnmente llamado ‘celeb-bait’ e infringe nuestras políticas".
“Este esquema es comúnmente llamado ‘celeb-bait’ e infringe nuestras políticas y es perjudicial para las personas que usan nuestros productos”, agregó Bickert. El celeb-bait comienza cuando los estafadores de distintas partes del mundo modifican imágenes y videos de celebridades para incentivar a sus “seguidores” a ir a sitios web fraudulentos, donde son engañados para compartir información confidencial.
Si te gustó nuestro contenido, puedes seguirnos en Google News y en nuestro Canal de WhatsApp, eso nos ayuda a seguir generando contenido gratuito a nuestros lectores. ¡Muchas gracias!