• Accueil
  • Technologie
  • Education
  • Guides
  • Fun
  • Outils IA
  • ChatGPT
Facebook Twitter Instagram
samedi, mars 25
Facebook Twitter Instagram
Intelligence artificielle
  • Accueil
  • Technologie
  • Education
  • Guides
  • Fun
  • Outils IA
  • ChatGPT
Intelligence artificielle
Home»Actualité IA»Ce que la déclaration des droits de l’IA de la Maison Blanche signifie pour l’Amérique et le reste du monde
Actualité IA

Ce que la déclaration des droits de l’IA de la Maison Blanche signifie pour l’Amérique et le reste du monde

JeanBy Jeanoctobre 18, 2022Updated:octobre 18, 2022Aucun commentaire15 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Artificial intelligence and regulations for machines | Roland Berger
Artificial intelligence and regulations for machines | Roland Berger
Share
Facebook Twitter LinkedIn Pinterest Email

L’Office of Science and Technology Policy (OSTP) de la Maison Blanche a récemment publié un livre blanc intitulé « The Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People ».

Ce cadre a été publié un an après que l’OSTP ait annoncé le lancement d’un processus visant à élaborer « une déclaration des droits pour un monde alimenté par l’IA » L’avant-propos de cette déclaration montre clairement que la Maison Blanche comprend les menaces imminentes que l’IA fait peser sur la société.

Voici ce que dit l’avant-propos : « Parmi les grands défis posés à la démocratie aujourd’hui figure l’utilisation de la technologie, des données et des systèmes automatisés d’une manière qui menace les droits du public américain. Trop souvent, ces outils sont utilisés pour limiter nos opportunités et empêcher notre accès à des ressources ou des services essentiels. Ces problèmes sont bien documentés.

En Amérique et dans le monde entier, des systèmes censés aider aux soins des patients se sont avérés dangereux, inefficaces ou biaisés. Les algorithmes utilisés dans les décisions d’embauche et de crédit se sont avérés refléter et reproduire des inégalités indésirables existantes ou intégrer de nouveaux préjugés et discriminations nuisibles. La collecte incontrôlée de données sur les médias sociaux a été utilisée pour menacer les opportunités des personnes, porter atteinte à leur vie privée ou suivre leur activité de manière omniprésente – souvent à leur insu ou sans leur consentement. »

Il reste à voir ce que cette déclaration des droits et le cadre qu’elle propose signifieront pour l’avenir de l’IA.

Ce que nous savons, c’est que de nouveaux développements apparaissent à un rythme toujours exponentiel. Ce qui était autrefois considéré comme impossible, la traduction instantanée des langues, est désormais une réalité.

Parallèlement, nous assistons à une révolution dans la compréhension du langage naturel (NLU), menée par OpenAI et sa célèbre plateforme GPT-3.

Depuis lors, nous avons assisté à la génération instantanée d’images via une technique appelée diffusion stable qui pourrait bientôt devenir un produit de consommation courante. En substance, avec cette technologie, un utilisateur peut simplement taper n’importe quelle requête qu’il peut imaginer, et comme par magie, l’IA générera une image qui correspond à la requête.

Si l’on tient compte de la croissance exponentielle et de la loi des rendements accélérés, il arrivera bientôt un moment où l’IA aura envahi tous les aspects de la vie quotidienne. Les personnes et les entreprises qui le savent et qui profitent de ce changement de paradigme en tireront profit. Malheureusement, une grande partie de la société pourrait être victime des conséquences mal intentionnées ou non de l’IA.

La Déclaration des droits de l’IA vise à soutenir le développement de politiques et de pratiques qui protègent les droits civils et promeuvent les valeurs démocratiques dans la construction, le déploiement et la gouvernance des systèmes automatisés. Il reste à voir comment ce projet de loi se comparera à l’approche de la Chine, mais c’est une déclaration des droits qui a le potentiel de changer le paysage de l’IA, et il est probable qu’elle sera adoptée par des alliés tels que l’Australie, le Canada et l’UE.

Ceci étant dit, la déclaration des droits de l’IA est non contraignante et ne constitue pas une politique du gouvernement américain. Elle ne remplace pas, ne modifie pas et ne dirige pas l’interprétation d’une loi, d’un règlement, d’une politique ou d’un instrument international existant. Cela signifie qu’il appartiendra aux entreprises et aux gouvernements de se conformer aux politiques décrites dans ce livre blanc.

Jasper

Ce projet de loi a identifié cinq principes qui devraient guider la conception, l’utilisation et le déploiement de systèmes automatisés afin de protéger le public américain à l’ère de l’intelligence artificielle. Nous présentons ci-dessous ces cinq principes :

1. Des systèmes sûrs et efficaces

Les systèmes d’IA abusifs, en particulier ceux qui reposent sur l’apprentissage profond, représentent un danger clair et présent pour la société. On tente d’y remédier avec ces principes : « Vous devriez être protégés des systèmes dangereux ou inefficaces.

Les systèmes automatisés devraient être développés avec la consultation de diverses communautés, parties prenantes et experts du domaine afin d’identifier les préoccupations, les risques et les impacts potentiels du système. Les systèmes doivent être soumis à des tests de prédéploiement, à l’identification et à l’atténuation des risques, ainsi qu’à une surveillance continue qui démontrent qu’ils sont sûrs et efficaces en fonction de leur utilisation prévue, de l’atténuation des résultats dangereux, y compris ceux qui dépassent l’utilisation prévue, et du respect des normes spécifiques au domaine.

Les résultats de ces mesures de protection devraient inclure la possibilité de ne pas déployer le système ou de retirer un système de son utilisation. Les systèmes automatisés ne doivent pas être conçus avec l’intention ou la possibilité raisonnablement prévisible de mettre en danger votre sécurité ou celle de votre communauté. Ils doivent être conçus pour vous protéger de manière proactive des préjudices découlant d’utilisations ou d’impacts non intentionnels, mais prévisibles, des systèmes automatisés.

Vous devez être protégé contre l’utilisation de données inappropriées ou non pertinentes dans la conception, le développement et le déploiement de systèmes automatisés, et contre les préjudices cumulés de leur réutilisation. Une évaluation et un rapport indépendants qui confirment que le système est sûr et efficace, y compris un rapport sur les mesures prises pour atténuer les préjudices potentiels, devraient être effectués et les résultats rendus publics dans la mesure du possible. »

2. Protections contre la discrimination algorithmique

Ces politiques abordent certains des éléphants dans la pièce lorsqu’il s’agit d’entreprises abusant des individus.

Un problème courant lors de l’embauche de personnel à l’aide de systèmes d’IA est que le système d’apprentissage profond s’entraîne souvent sur des données biaisées pour parvenir à des conclusions d’embauche. Cela signifie essentiellement que de mauvaises pratiques d’embauche dans le passé entraîneront une discrimination sexuelle ou raciale par un agent d’embauche.

Une étude a indiqué la difficulté de tenter de dé-genrer les données d’entraînement. Un autre problème fondamental lié aux données biaisées par les gouvernements est le risque d’incarcération injustifiée, ou pire encore, les algorithmes de prédiction de la criminalité qui offrent des peines de prison plus longues aux minorités. « Vous ne devriez pas subir de discrimination de la part des algorithmes et les systèmes devraient être utilisés et conçus de manière équitable.

La discrimination algorithmique se produit lorsque des systèmes automatisés contribuent à un traitement différent injustifié ou à des impacts défavorables aux personnes en raison de leur race, couleur, ethnicité, sexe (y compris la grossesse, l’accouchement et les conditions médicales connexes, l’identité de genre, le statut intersexe et l’orientation sexuelle), religion, âge, origine nationale, handicap, statut d’ancien combattant, information génétique ou toute autre classification protégée par la loi.

Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir les systèmes de manière équitable.

Cette protection devrait inclure des évaluations proactives de l’équité dans le cadre de la conception du système, l’utilisation de données représentatives et la protection contre les proxies pour les caractéristiques démographiques, la garantie de l’accessibilité pour les personnes handicapées dans la conception et le développement, les tests et l’atténuation des disparités avant le déploiement et en continu, et une supervision organisationnelle claire.

Une évaluation indépendante et un rapport en langage clair sous la forme d’une évaluation de l’impact algorithmique, y compris les résultats des tests de disparité et les informations sur l’atténuation, devraient être effectués et rendus publics chaque fois que possible pour confirmer ces protections. » Il convient de noter que les États-Unis ont adopté une approche très transparente en matière d’IA, il s’agit de politiques destinées à protéger le grand public, ce qui contraste clairement avec les approches de l’IA adoptées par la Chine.

3. Confidentialité des données

Ce principe de confidentialité des données est celui qui est le plus susceptible d’affecter le plus grand segment de la population.

La première moitié du principe semble s’intéresser à la collecte de données, plus précisément aux données recueillies sur Internet, un problème connu, notamment pour les plateformes de médias sociaux. Ces mêmes données peuvent ensuite être utilisées pour vendre des publicités, ou pire encore pour manipuler le sentiment du public et influencer les élections. « Vous devriez être protégé contre les pratiques abusives en matière de données grâce à des protections intégrées et vous devriez avoir un droit de regard sur la façon dont les données vous concernant sont utilisées.

Vous devriez être protégé des violations de la vie privée par des choix de conception qui garantissent que de telles protections sont incluses par défaut, notamment en veillant à ce que la collecte de données soit conforme aux attentes raisonnables et que seules les données strictement nécessaires au contexte spécifique soient collectées.

Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent demander votre autorisation et respecter vos décisions concernant la collecte, l’utilisation, l’accès, le transfert et la suppression de vos données de manière appropriée et dans la mesure du possible ; lorsque cela n’est pas possible, il convient d’utiliser d’autres protections de la vie privée dès la conception.

Les systèmes ne doivent pas utiliser l’expérience de l’utilisateur et les décisions de conception qui obscurcissent le choix de l’utilisateur ou qui imposent aux utilisateurs des valeurs par défaut qui portent atteinte à la vie privée. Le consentement ne doit être utilisé pour justifier la collecte de données que dans les cas où il peut être donné de manière appropriée et significative.

Toute demande de consentement doit être brève, compréhensible dans un langage clair et simple, et vous donner la maîtrise de la collecte des données et du contexte spécifique d’utilisation ; les pratiques actuelles de notification et de choix difficiles à comprendre pour les utilisations étendues des données doivent être modifiées. » La seconde moitié du principe de confidentialité des données semble concerner la surveillance exercée par les gouvernements et les entreprises.

Actuellement, les entreprises sont en mesure de surveiller et d’espionner les employés, dans certains cas pour améliorer la sécurité sur le lieu de travail, pendant la pandémie de COVID-19, c’était pour imposer le port de masques, mais le plus souvent, c’est simplement pour surveiller l’utilisation du temps de travail.

Dans bon nombre de ces cas, les employés ont l’impression d’être surveillés et contrôlés au-delà de ce qui est jugé acceptable. « Des protections et des restrictions renforcées pour les données et les déductions liées à des domaines sensibles, notamment la santé, le travail, l’éducation, la justice pénale et les finances, ainsi que pour les données relatives à la jeunesse, devraient vous placer au premier plan. Dans les domaines sensibles, vos données et inférences connexes ne devraient être utilisées que pour les fonctions nécessaires, et vous devriez être protégés par un examen éthique et des interdictions d’utilisation.

Vous et vos communautés devriez être à l’abri d’une surveillance incontrôlée ; les technologies de surveillance devraient faire l’objet d’une surveillance accrue comprenant au moins une évaluation préalable au déploiement de leurs inconvénients potentiels et des limites de leur portée afin de protéger la vie privée et les libertés civiles. La surveillance et le contrôle continus ne devraient pas être utilisés dans l’éducation, le travail, le logement, ou dans d’autres contextes où l’utilisation de ces technologies de surveillance est susceptible de limiter les droits, les opportunités ou l’accès.

Dans la mesure du possible, vous devriez avoir accès à des rapports qui confirment que vos décisions en matière de données ont été respectées et qui fournissent une évaluation de l’impact potentiel des technologies de surveillance sur vos droits, vos opportunités ou votre accès. » Il convient de noter que l’IA peut être utilisée à bon escient pour protéger la vie privée des personnes.

4. Avis et explication

Ceci devrait être l’appel aux armes pour que les entreprises déploient un comité consultatif d’éthique de l’IA, et qu’elles fassent pression pour accélérer le développement d’une IA explicable. L’IA explicable est nécessaire dans le cas où un modèle d’IA fait une erreur, la compréhension du fonctionnement de l’IA permet de diagnostiquer facilement un problème.

L’IA explicable permettra également le partage transparent d’informations sur la manière dont les données sont utilisées et sur la raison pour laquelle une décision a été prise par l’IA. Sans IA explicable, il sera impossible de se conformer à ces politiques en raison du problème de boîte noire de l’apprentissage profond.

Les entreprises qui se concentrent sur l’amélioration de ces systèmes tireront également des avantages de la compréhension des nuances et des complexités derrière la raison pour laquelle un algorithme d’apprentissage profond a pris une décision spécifique. « Vous devez savoir qu’un système automatisé est utilisé et comprendre comment et pourquoi il contribue à des résultats qui ont un impact sur vous. Les concepteurs, les développeurs et les responsables du déploiement de systèmes automatisés devraient fournir une documentation généralement accessible en langage clair, comprenant des descriptions claires du fonctionnement global du système et du rôle joué par l’automatisation, un avis indiquant que de tels systèmes sont utilisés, la personne ou l’organisation responsable du système, et des explications des résultats qui sont claires, opportunes et accessibles.

Cet avis doit être tenu à jour et les personnes concernées par le système doivent être informées des modifications importantes du cas d’utilisation ou des fonctionnalités clés. Vous devez savoir comment et pourquoi un résultat vous concernant a été déterminé par un système automatisé, y compris lorsque le système automatisé n’est pas le seul élément déterminant le résultat. Les systèmes automatisés doivent fournir des explications qui sont techniquement valides, significatives et utiles pour vous et pour les opérateurs ou autres personnes qui doivent comprendre le système, et calibrées en fonction du niveau de risque basé sur le contenu.

Des rapports comprenant des informations sommaires sur ces systèmes automatisés en langage clair et des évaluations de la clarté et de la qualité de l’avis et des explications devraient être rendus publics dans la mesure du possible. »

5. Alternatives humaines, considération et repli

Contrairement à la plupart des principes ci-dessus, ce principe s’applique surtout aux entités gouvernementales, ou aux institutions privatisées qui travaillent pour le compte du gouvernement.

Même avec un comité d’éthique de l’IA et une IA explicable, il est important de se rabattre sur un examen humain lorsque des vies sont en jeu. Il y a toujours un risque d’erreur, et le fait qu’un humain examine un cas sur demande pourrait éviter un scénario tel qu’une IA envoyant les mauvaises personnes en prison.

Le système judiciaire et pénal est celui qui a le plus de marge de manœuvre pour causer des dommages irréparables aux membres marginalisés de la société et devrait prendre particulièrement note de ce principe. « Vous devriez pouvoir vous désengager, le cas échéant, et avoir accès à une personne qui peut rapidement examiner les problèmes que vous rencontrez et y remédier. Vous devriez pouvoir vous retirer des systèmes automatisés en faveur d’une alternative humaine, le cas échéant.

Le caractère approprié doit être déterminé sur la base d’attentes raisonnables dans un contexte donné et en mettant l’accent sur la garantie d’une large accessibilité et la protection du public contre des impacts particulièrement néfastes. Dans certains cas, une alternative humaine ou autre peut être exigée par la loi. Vous devez avoir accès à un examen et à un recours humain en temps opportun par un problème de repli et d’escalade si un système automatisé échoue, s’il produit une erreur ou si vous souhaitez faire appel ou contester son impact sur vous.

La prise en compte humaine et le repli doivent être accessibles, équitables, efficaces, maintenus, accompagnés d’une formation appropriée de l’opérateur et ne doivent pas imposer une charge déraisonnable au public. Les systèmes automatisés destinés à être utilisés dans des domaines sensibles, y compris, mais sans s’y limiter, le système pénal, l’emploi, l’éducation et la santé, doivent en outre être adaptés à l’objectif, fournir un accès significatif à la surveillance, inclure une formation pour toute personne interagissant avec le système, et intégrer une prise en compte humaine pour les décisions défavorables ou à haut risque.

Les rapports qui comprennent une description de ces processus de gouvernance humaine et une évaluation de leur opportunité, de leur accessibilité, de leurs résultats et de leur efficacité devraient être rendus publics dans la mesure du possible. »

Résumé

Il faut reconnaître à l’OSTP le mérite d’avoir tenté d’introduire un cadre qui fait le lien entre les protocoles de sécurité nécessaires à la société, sans pour autant introduire des politiques draconiennes qui pourraient entraver les progrès du développement de l’apprentissage automatique.

Après avoir exposé les principes, le projet de loi continue en fournissant un accompagnement technique aux questions qui sont discutées ainsi que des informations détaillées sur chaque principe et les meilleures façons d’avancer pour mettre en œuvre ces principes. Les propriétaires et entreprises avisés devraient prendre note d’étudier ce projet de loi, car il ne peut qu’être avantageux de mettre en œuvre ces politiques dès que possible.

L’IA explicable continuera à dominer en importance, comme le montre cette citation du projet de loi. « Dans l’ensemble du gouvernement fédéral, des agences mènent et soutiennent des recherches sur les systèmes d’IA explicables. Le NIST mène des recherches fondamentales sur l’explicabilité des systèmes d’IA. Une équipe multidisciplinaire de chercheurs vise à développer des méthodes de mesure et des meilleures pratiques pour soutenir la mise en œuvre des principes fondamentaux de l’IA explicable.

La Defense Advanced Research Projects Agency a un programme sur l’intelligence artificielle explicable qui vise à créer une suite de techniques d’apprentissage automatique qui produisent des modèles plus explicables, tout en maintenant un haut niveau de performance d’apprentissage (précision de prédiction), et qui permettent aux utilisateurs humains de comprendre, de faire confiance de manière appropriée et de gérer efficacement la génération émergente de partenaires artificiellement intelligents.

Le programme de la National Science Foundation sur l’équité dans l’intelligence artificielle comprend également un intérêt spécifique pour les fondements de la recherche sur l’IA explicable. » Ce qu’il ne faut pas négliger, c’est que les principes décrits ici finiront par devenir la nouvelle norme.

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Jean
  • Website

Related Posts

Artificial Intelligence in Tourism Industry Revolutionising the Way We Travel

Artificial Intelligence in Tourism Industry: Revolutionising the Way We Travel

mars 18, 2023
The Growing Role of AI in Supply Chain Management

Le rôle croissant de l’IA dans la gestion de la chaîne d’approvisionnement

mars 17, 2023
réseau adversarial génératif (GAN)

10 Cas d’utilisation du GAN en 2023

mars 16, 2023

Comments are closed.

Bienvenue sur le Mag dédié à l’intelligence artificelle

Ce site est dédié à l’IA et au machine learning et est un moyen de partager notre passion pour tout ce qui touche de près ou de loin à cette nouvelle révolution.
Que vous soyez passionné par les évolutions dans ce secteur, à la recherche d’outils ou d’astuces pour automatiser votre activité, ce blog est fait pour vous !

Articles récents
Artificial Intelligence in Tourism Industry Revolutionising the Way We Travel
Artificial Intelligence in Tourism Industry: Revolutionising the Way We Travel
mars 18, 2023
The Growing Role of AI in Supply Chain Management
Le rôle croissant de l’IA dans la gestion de la chaîne d’approvisionnement
mars 17, 2023
réseau adversarial génératif (GAN)
10 Cas d’utilisation du GAN en 2023
mars 16, 2023
IA social
  • Facebook
  • Twitter
  • Pinterest
Artificial Intelligence in Tourism Industry Revolutionising the Way We Travel Actualité IA
5 Mins Read
Artificial Intelligence in Tourism Industry: Revolutionising the Way We Travel
By Jeanmars 18, 2023

Are you tired of spending hours on end researching and planning your next vacation? Do…

The Growing Role of AI in Supply Chain Management

Le rôle croissant de l’IA dans la gestion de la chaîne d’approvisionnement

mars 17, 2023
réseau adversarial génératif (GAN)

10 Cas d’utilisation du GAN en 2023

mars 16, 2023
Note

Nous sommes soutenus par nos lecteurs. Lorsque vous effectuez des achats par le biais de liens présents sur notre site, nous pouvons recevoir une commission d’affiliation.

Facebook Twitter Instagram Pinterest
  • À propos
  • Confidentialité
  • Écrivez pour nous
  • Contact
Tous droits réservés 2023 - Plan du site

Type above and press Enter to search. Press Esc to cancel.