En diagnostiquant des patients, les IA reproduisent des biais racistes

Le Point, le
En diagnostiquant des patients, les IA reproduisent des biais racistes
Une etude universitaire met en garde contre l'utilisation en milieu hospitalier des principaux robots conversationnels actuels, comme ChatGPT.
Articles qui devraient vous intéresser :

Cancer du poumon: opération non invasive

Le Figaro
Cancer du poumon: opération non invasive
Une technique chirurgicale moins douloureuse pour les patients commence à s'imposer en France. L'opération se fait par le biais de trois petites incisions sans ouvrir le thorax.

En Thaïlande, la crainte du coronavirus suscite des réactions racistes contre les Chinois

Le Monde
En Thaïlande, la crainte du coronavirus suscite des réactions racistes contre les Chinois
Les propos discriminatoires se multiplient dans le royaume, quatrième pays affecté par l’épidémie.

Droit des femmes : l’intelligence artificielle entretient des biais bien réels !

Le Point
Droit des femmes : l’intelligence artificielle entretient des biais bien réels !
TRIBUNE. L'association #JamaisSansElles, engagee depuis plusieurs annees dans des actions concretes en faveur de la mixite, plaide pour le volontarisme face aux biais de l'intelligence artificielle.

En Grèce, les feux attisent des propos et des actes racistes

Le Monde
En Grèce, les feux attisent des propos et des actes racistes
A la frontière gréco-turque, où des incendies brûlent la forêt depuis six jours, les migrants sont tenus pour responsables par des groupes d’habitants qui s’organisent pour les chasser.