Dans notre travail, nous utiliserons de plus en plus d’outils d’IA pour la cybersécurité, l’administration informatique, le développement et l’architecture de logiciels, la conception de matériel et 100 autres tâches. Malgré le langage flou de l’industrie technologique, nous réussirons mieux avec les outils de demain en les comprenant, en les utilisant et en les exploitant, et non en « nous associant à l’IA ».
Le deuxième problème est que nous pourrions faire confiance à l’IA, en nous appuyant beaucoup trop sur l’IA agentique de nouvelle génération pour choisir sa propre voie pour résoudre nos problèmes et atteindre les objectifs que nous nous sommes fixés. Au lieu de cela, nous devons comprendre les dangers potentiels et nous assurer qu’il fait ce que nous voulons qu’il fasse sans lui permettre accidentellement de « voler », de « tricher », de « mentir » ou de nuire à des personnes en notre nom.
Ne craignez pas le robot
Si le public croit que l’IA a des qualités humaines, il est susceptible d’en avoir peur. L’IA n’est pas humaine, et derrière sa simulation programmatique de la parole humaine et son intelligence émotionnelle artificielle, c’est juste une machine avec toute l’humanité d’un grille-pain. L’IA fera toujours peur aux gens s’ils croient qu’il s’agit de « penser ». En raison de cette peur, un pourcentage énorme de personnes à l’avenir pourraient bien refuser les interventions médicales basées sur l’IA et d’autres médicaments, thérapies et soins d’urgence bénéfiques, voire salvateurs.