Apple et IA générative

Apple critiquée pour des biais raciaux dans son IA générative d’images

Avec iOS 18.2, Apple a introduit aux États-Unis une nouvelle fonctionnalité de génération d’images via son application Image Playground, reposant sur Apple Intelligence. Cependant, cette technologie est désormais accusée de reproduire des stéréotypes raciaux dans ses créations visuelles.

Des représentations biaisées selon le contexte

Le chercheur en apprentissage automatique Jochem Gietema a étudié le fonctionnement de cette IA et a constaté qu’elle avait tendance à associer certains métiers ou activités à des origines spécifiques. Par exemple, lorsqu’un utilisateur demande une image de basketteur, le résultat est systématiquement une personne noire, tandis qu’un skieur est toujours représenté comme une personne blanche.

Pire encore, ces biais se renforcent lorsque l’on utilise des termes liés au statut socio-économique. En entrant des mots-clés comme « riche », « influent » ou « réussite professionnelle », l’IA génère des images d’hommes blancs en costume-cravate. À l’inverse, avec des termes comme « pauvre » ou « démuni », les résultats montrent majoritairement des hommes noirs habillés plus modestement.

Un embarras pour Apple, pourtant engagée sur l’inclusivité

Ces observations, publiées sur le blog de Jochem Gietema, posent problème pour Apple, qui met en avant son engagement en faveur de l’inclusivité dans le développement de ses technologies d’intelligence artificielle. Si d’autres IA ont déjà été critiquées pour des biais similaires, l’image de la marque est particulièrement impactée par ces résultats, alors qu’elle prépare le lancement de Apple Intelligence en Europe en avril.

Source de l’actu : BFM Tech & Co