Addictware | Noticias de Tecnología - Avances en inteligencia artificial inclusiva

La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos.

La inteligencia artificial es esencial para un amplio rango de productos e infraestructura en Facebook. Recientemente, esto ha incluido detectar proactivamente contenido que viole nuestras políticas. Para ayudarnos a localizarlo, trabajamos para asegurarnos que nuestros sistemas de inteligencia artificial entiendan el contenido con la menor supervisión posible. Hemos logrado importantes avances, pero aún tenemos mucho trabajo por delante. Los avances en el procesamiento de lenguajes naturales (NLP por sus siglas en inglés) nos han ayudado a crear un lenguaje común para traducciones, y de esta forma detectar contenido problemático en más lenguajes. También tenemos un nuevo acercamiento a reconocimiento de objetos llamado Panoptic FPN, el cual ayuda a nuestros sistemas impulsados por inteligencia artificial a entender el contexto, por el fondo de las fotos. Entrenar modelos que combinan señales visuales y auditivas han mejorado los resultados. 

Tecnologías como Panoptic FPN, aquí ilustrado, ayudan a los sistemas impulsados por inteligencia artificial a entender el contexto de los fondos de las fotos. image004 15

Nuestro trabajo en el procesamiento de lenguajes naturales es importante, pero muchas técnicas funcionan mejor para los lenguajes más comunes. Por esto también necesitamos trabajar en apoyar los otros lenguajes donde no hay suficientes muestras para entrenar. Aquí es donde entran en juego las técnicas de aprendizaje con supervisión propia. Éstas nos permiten entrenar modelos sin necesidad de curaduría con humanos para etiquetar grandes conjuntos de datos para esos nuevos lenguajes. Esto nos permite entender mejor el contenido relevante, incluyendo las violaciones a las políticas de Facebook, sin traducir cada uno de los enunciados. Estas técnicas aseguran que todos nuestros clasificadores detecten el contenido problemático en más lenguajes de los que anteriormente era posible.

La inteligencia artificial es fundamental para mantener nuestra plataforma segura, pero sabemos que hay riesgos, pues puede reflejar y ampliar sesgos. Para abordar esto, estamos construyendo buenas prácticas para la imparcialidad –asegurándonos de que la inteligencia artificial proteja a las personas y no las discrimine– en cada paso del desarrollo del producto. 

Cuando los modelos de inteligencia artificial son entrenados por humanos en conjuntos de datos que involucran a personas, existe un riesgo representativo inherente. Si los conjuntos de datos contienen limitaciones, fallas u otros problemas, los modelos resultantes pueden funcionar de manera diferente para diferentes personas. Para gestionar ese riesgo, desarrollamos un nuevo proceso para inteligencia artificial inclusiva. Éste proporciona pautas para ayudar a los investigadores y programadores a diseñar conjuntos de datos, medir el rendimiento del producto y probar nuevos sistemas a través de la lente de inclusión. Para la visión, esas dimensiones incluyen el tono de la piel, la edad y la presentación de género, y para la voz incluyen el dialecto, la edad y el género. El marco inclusivo de inteligencia artificial ahora se usa en muchos equipos de producto en Facebook y se integra en el desarrollo de nuevas características.