La déclaration de procuration d’Apple pour 2024 pour son assemblée annuelle des actionnaires révèle plusieurs initiatives peu connues qu’elle a suivies pour améliorer l’intelligence artificielle (IA) dans sa gamme de produits, et la société semble aller un peu plus loin que d’autres pour s’occuper des détails.
La société a partagé son point de vue sur sa façon de penser en réponse à une proposition d’actionnaire soutenue par deux entreprises investisseurs : Legal & General Investment Management (l’un des 25 principaux actionnaires d’Apple) et Abrdn.
Les investisseurs souhaitent qu’Apple publie un rapport de transparence sur l’utilisation de l’IA et les cadres éthiques de l’entreprise. Apple avait tenté d’exclure la résolution, mais la Securities and Exchange Commission (SEC) des États-Unis a rejeté cette tentative.
L’IA devrait-elle se déplacer librement ?
L’argument central de la proposition d’actionnaire est respectable. Personne ne devrait ignorer l’impact profondément transformateur que l’IA est sur le point d’avoir sur chaque société et chaque profession. La profession juridique, par exemple, se prépare à l’un des impacts les plus perturbateurs de la technologie qu’elle ait jamais connu.
La volonté de forcer les entreprises spécialisées dans la création d’outils et de plateformes d’IA et d’IA générative à adhérer à des normes éthiques ne fera que s’intensifier à mesure que les populations prendront conscience de l’importance du déploiement de masse. En fin de compte, la lenteur perçue par Apple dans l’élargissement du déploiement de l’IA, contrairement à certains concurrents, pourrait refléter le fait que l’entreprise voit les choses de la même manière.
“Nous pensons qu’il est important d’être délibéré et réfléchi dans le développement et le déploiement de l’intelligence artificielle, et que les entreprises réfléchissent aux conséquences des nouvelles technologies avant de les lancer”, a déclaré Apple en réponse aux propositions des actionnaires.
Apple y réfléchit sérieusement
Apple a également partagé quelques exemples pour étayer son argument :
- « Apple est engagé dans un processus continu visant à faire de Siri une fonctionnalité plus inclusive et accessible, notamment en engageant des experts sociolinguistes pour améliorer les taux de précision de la reconnaissance vocale pour les utilisateurs de différentes origines ethniques/raciales, de genre et géographiques et en travaillant en partenariat avec Black. et des bénévoles afro-américains vernaculaires anglophones », a déclaré l’entreprise.
- Apple affirme également que lorsqu’elle a développé Face ID, la société était très consciente que les algorithmes de reconnaissance faciale n’étaient jusqu’alors pas très précis pour reconnaître divers groupes démographiques. Pour résoudre ce problème, ses équipes ont travaillé avec des bénévoles du monde entier pour inclure un groupe représentatif de personnes tenant compte du sexe, de l’âge, de l’origine ethnique, du handicap et d’autres facteurs lors de la création de FaceID.
Ces deux efforts semblent importants compte tenu de l’avertissement de 2018 de l’ancien directeur principal de l’IA et de l’apprentissage automatique d’Apple, Carlos Guestrin, selon lequel une IA mal mise en œuvre pourrait exacerber les préjugés sociétaux.
« Il ne suffit pas de réfléchir aux données que nous utilisons, mais aussi à la manière dont ces données reflètent notre culture et les valeurs auxquelles nous aspirons », avait alors déclaré Guestrin. « Il existe désormais une tendance à penser non seulement aux indicateurs commerciaux, mais également aux impacts sociaux qu’aura l’apprentissage automatique. »
Une plus grande transparence de l’IA est inévitable
Les commentaires de Guestrin suggèrent qu’il y a quelque chose à dire pour obliger les entreprises à révéler leur approche éthique de l’utilisation et du déploiement de la technologie de l’IA. L’idée selon laquelle des décisions ayant d’énormes conséquences pourraient être prises par des machines sur la base de principes et d’une éthique qui ne sont pas partagés de manière transparente ou ouverts à un examen ne peut pas tenir.
La proposition d’actionnaire met en garde contre l’utilisation de l’IA pour porter atteinte à la vie privée et générer de faux contenus médiatiques, et souligne même l’impact que l’intelligence artificielle a déjà sur les emplois et les lieux de travail.
Cependant, comme le souligne Apple, le champ d’application décrit dans la proposition initiale est très large et pourrait en principe contraindre l’entreprise à partager des informations confidentielles en matière de R&D.
Bien que la résolution soit peut-être d’une portée trop large, peuplée comme elle semble l’être d’un pot-pourri de préoccupations actuelles en matière d’IA, la vérité qui dérange est que le temps pendant lequel ces technologies peuvent être déployées sans surveillance est limité. En fin de compte, les gagnants du jeu en cours pourraient – ou non – correspondre à l’engagement inébranlable d’Apple à considérer l’impact qu’il pourrait avoir avant de le libérer.
Veuillez me suivre sur Mastodon ou rejoignez-moi dans les groupes bar & grill et Apple Discussions d’AppleHolic sur MeWe.
Copyright © 2024 IDG Communications, Inc.