Intelligence artificielle : la reconnaissance faciale est-elle misogyne et raciste ? - منتديات دفاتر التربوية التعليمية المغربية
تسجيل جديد
أبرز العناوين



مواضيع بالفرنسية هذا الركن بدفاتر dafatir يخصص للمواضيع التربوية العامة باللغة الفرنسية التي ليس لها تصنيف في المنتدى

أدوات الموضوع

الصورة الرمزية nasser
nasser
:: مراقب عام ::
تاريخ التسجيل: 26 - 1 - 2008
السكن: فاس
المشاركات: 73,073
معدل تقييم المستوى: 7530
nasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميزnasser في سماء التميز
nasser غير متواجد حالياً
نشاط [ nasser ]
قوة السمعة:7530
قديم 09-03-2018, 00:43 المشاركة 1   
Cool Intelligence artificielle : la reconnaissance faciale est-elle misogyne et raciste ?

ط§ط¶ط؛ط· ط¹ظ„ظ‰ ط§ظ„طµظˆط±ط© ظ„ط±ط¤ظٹطھظ‡ط§ ط¨ط§ظ„ط­ط¬ظ… ط§ظ„ط·ط¨ظٹط¹ظٹ Intelligence artificielle : la reconnaissance faciale est-elle misogyne et raciste ?

Par Sarah Sermondadaz le 06.03.2018

Une publication scientifique montre que les systèmes de reconnaissance faciale ont de préoccupants biais relatifs au genre et à la couleur de peau. Si l'on est femme et noire, le taux d'erreur peut s'élever à 35% !

L'intelligence artificielle (IA), comme les humains qui donnent indirectement l'exemple aux algorithmes, peut être biaisée. Voire même alimenter des discriminations. C'est aussi le cas de la reconnaissance faciale, comme le révèle une étude réalisée par le MIT et Microsoft, parue dans la publication spécialisée Proceedings of Machine Learning Research. Ces scientifiques ont testé divers algorithmes de reconnaissance faciale supposés déterminer le genre de quelqu'un à partir de sa photo. Et ses résultats sont préoccupants : plus la carnation des personnes est foncée, plus le taux d'erreur grimpe en flèche ! Le maximum est atteint pour les femmes noires, avec un taux d'erreur pouvant s'élever jusqu'à 35%. Un problème récurrent : en 2015 déjà, Google avait été accusé d'étiqueter les photos de personnes noires comme des "gorilles" dans son application Google Photos...

Un biais minimal... lorsqu'on est un homme blanc
Les chercheurs ont construit un jeu de données de 1270 visages à partir de portraits d'hommes et de femmes politiques de diverses nationalités. Ils ont ensuite testé l'efficacité de 3 systèmes de reconnaissance faciale aujourd'hui commercialisés : celui de Microsoft, celui d'IBM, mais également Megvii Face++, qui est officiellement utilisé par les autorités chinoises avec un accès à la base de données personnelles centralisée par le gouvernement.

DISCRIMINATIONS. Résultat ? Ce sont les hommes blancs qui s'en sortent le mieux : ils n'ont été pris par des femmes par l'algorithme que dans moins de 1% des cas. Pour les femmes blanches, le taux d'erreur monte à 7%, contre respectivement 12% de taux d'erreur pour les hommes noirs mais surtout 35% pour les femmes noires. "Globalement, les hommes sont mieux répertoriés par l'algorithme que les femmes. La même tendance s'observe pour les sujets à la peau pâle par rapport à ceux dont la carnation est plus foncée, écrivent les auteurs. Et d'un point de vue intersectionnel, lorsqu'on croise les discriminations raciales et ***istes, on observe les pires performances pour les femmes à la peau noire." Dans les jours qui ont suivi la parution de l'étude, IBM a réagi à travers une note de blog (en anglais). L'occasion, pour le géant américain, de rappeler que son logiciel est celui présentant le taux d'erreur le plus bas, entre les 3 testés.

Images et compositions moyennes des 1270 visages de l'étude / J.Buolamwini et al.
ط§ط¶ط؛ط· ط¹ظ„ظ‰ ط§ظ„طµظˆط±ط© ظ„ط±ط¤ظٹطھظ‡ط§ ط¨ط§ظ„ط­ط¬ظ… ط§ظ„ط·ط¨ظٹط¹ظٹ
Reconnaissance faciale et police, des liaisons dangereuses
Les biais mis en évidence par ce travail de recherche peuvent avoir d'importantes répercussions selon les applications technologiques. En septembre 2017, une étude défrayait la chronique en pensant pouvoir déterminer l'orientation ***uelle grâce à le reconnaissance faciale en dépit de biais méthodologiques évidents. Une tendance inquiétante lorsqu'on voit qu'en Chine, des systèmes prédictifs sont parfois utilisés afin d'interpeller des suspects. Aux États-Unis, ces technologies peuvent avoir des conséquences dramatiques lorsqu'elles sont utilisées par les autorités juridiques. En avril 2016, le titre américain The Atlantic (lien en anglais) montrait que les systèmes de vidéosurveillance automatisée étaient beaucoup moins performants sur les Afro-américains, pouvant mener à des arrestations d'innocents.

Ces biais proviennent en fait indirectement du choix des données qui vont venir alimenter l'algorithme lors de son apprentissage. On lui fournira ainsi un grand nombre d'exemples de personnes annotées "homme" ou "femme". “Lorsqu'il est au point, un algorithme de prédiction a appris à retrouver ces étiquettes à partir des seules images“, décryptait Francis Bach, chercheur à l'Inria, pour Sciences et Avenir. “Mais le contexte importe, notamment l'origine ethnique : un algorithme ayant appris à partir de photos où les blancs sont sur-représentés par rapport à la population moyenne sera moins performant !”

PRÉJUGÉS INCONSCIENTS. Autrement dit, les pratiques de développement de ces logiciels ont leur importance. Or, les créateurs de ces programmes sont aujourd'hui principalement des hommes blancs (en tout cas en Europe et aux États-Unis, à l'exception de la Chine), observait le Guardian fin décembre 2017 (lien en anglais). Même si ces biais ne sont pas forcément intentionnels, et peuvent résulter de biais inconscients dans le choix des données d'apprentissage, leurs effets sont bien là.

"Les technologies de vision artificielle étant utilisées dans des domaines à forts enjeux comme la santé, la police ou la justice, il y a grand besoin de plus de travaux pour les valider sur plusieurs groupes démographiques et phénotypiques", soulignent les deux auteurs de l'étude. Et ce, en dépit des allégations commerciales des sociétés du secteur du profilage vidéo, qui se targuent parfois d'un taux de succès "supérieur à 95%". Un pourcentage susceptible de chuter si l'on n'est pas un homme blanc, semblerait-il.









الحمد لله رب العالمين
آخر مواضيعي

0 في شأن إدماج أساتذة التكوين المهني ضمن أساتذة التعليم الثانوي التأهيلي : 0890../ 24
0 بيان تضامني مع الأستاذ ( ع, أ ) ضحية العنف المدرسي
0 تائـج الاختبـارات الكتابيـة لمباراة انتقاء أساتذة لتدريس اللغة العربية والثقافة المغربية لأبناء الجالية المغربية المقيمة بأوروبا - دورة مارس 2024
0 ​مذكرة رقم 24-151 بتاريخ 17 أبريل 2024 في شأن إدماج بعض الموظفين المنتمين إلى قطاع التربية والوطنية ضمن بعض الأطر المنصوص عليها في النظام الأساسي الجديد
0 مذكرة رقم 24-150 بتاريخ 17 أبريل 2024 في شأن إدماج بعض الفئات من الموظفين ضمن بعض الأطر المنصوص عليها في النظام الأساسي الجديد
0 صرف الزيادة في الأجور لأسرة التعليم نهاية شهر أبريل الجاري.
0 مجلس الأعلى للتربية والتكوين يُقيّم تطور المساواة بين الجنسين في التعليم
0 ​مباراة ولوج سلك تأهيل أطر التدريس بالمراكز الجهوية لمهن التربية والتكوين- مسلك التعليم الثانوي الاعدادي- لائحة المترشحات والمترشحين المقبولين لاجتياز الاختبارات الكتابية - دورة أبريل 2024
0 الحكومة تقترب من إقرار زيادة عامة في أجور الشغيلة مع "فاتح ماي"
0 وزارة التربية تكشف عن المواعيد الجديدة للامتحانات الوطنية


خادم المنتدى
:: مراقب عام ::

الصورة الرمزية خادم المنتدى

تاريخ التسجيل: 20 - 10 - 2013
السكن: أرض الله الواسعة
المشاركات: 17,180

خادم المنتدى غير متواجد حالياً

نشاط [ خادم المنتدى ]
معدل تقييم المستوى: 1867
افتراضي
قديم 13-07-2019, 08:19 المشاركة 2   




Merci infiniment pour ce partage
-*********************************-

إضافة رد

مواقع النشر (المفضلة)

« Allemagne : la gratuité des transports urbains envisagée contre la pollution | La Lune serait (à peine) plus vieille que la Terre »

تعليمات المشاركة
لا تستطيع إضافة مواضيع جديدة
لا تستطيع الرد على المواضيع
لا تستطيع إرفاق ملفات
لا تستطيع تعديل مشاركاتك

BB code is متاحة
كود [IMG] متاحة
كود HTML معطلة

الانتقال السريع

المواضيع المتشابهه
الموضوع كاتب الموضوع المنتدى مشاركات آخر مشاركة
Des scientifiques ont inventé une synapse artificielle capable de s’instruire de manière autonome nasser مواضيع بالفرنسية 2 14-04-2017 00:56
Test d'intelligence recoba55 دفاتر الانشطة الثقافية و الفنية و الرياضية 4 07-07-2009 10:53
Les secrets de l'intelligence Soussi كتب إلكترونية 2 04-07-2009 19:00
Les secrets de l’intelligence شبيب مواضيع بالفرنسية 6 27-06-2009 23:02


الساعة الآن 21:06


Powered by vBulletin® Copyright ©2000 - 2024, Jelsoft Enterprises Ltd
جميع الحقوق محفوظة لمنتديات دفاتر © 1434- 2012 جميع المشاركات والمواضيع في منتدى دفاتر لا تعبر بالضرورة عن رأي إدارة المنتدى بل تمثل وجهة نظر كاتبها
جميع الحقوق محفوظة لمنتديات دفاتر تربوية © 2007 - 2015 تصميم النور اونلاين لخدمات الويب المتكاملة