L’entrepreneur en technologie moderne Elon Musk a récemment exhorté les gouverneurs du pays à contrôler l’intelligence artificielle « avant qu’il ne soit trop tard ». Musk insiste sur le fait que la connaissance créée par l’homme signifie un «danger existentiel pour l’humanité», un regard alarmiste qui confond la science de l’IA avec la science-fiction. Néanmoins, même les scientifiques de l’IA comme moi reconnaissent que vous avez de bonnes inquiétudes quant à son impact sur les outils, les tâches et le niveau de confidentialité. Il est naturel de se demander, peu importe si nous devons construire l’IA par quelque moyen que ce soit. Je crois que la réponse est oui. Mais ne devrions-nous pas prendre des mesures pour pas moins qu’une lente amélioration de l’IA, dans la fascination de l’extrême prudence? Cependant, chaque fois que nous y parviendrons, les nations du monde entier, comme les fournisseurs chinois, nous dépasseront. Le cheval AI a toujours quitté la grange, et notre meilleure supposition est généralement de faire un effort pour la guider. L’IA ne devrait vraiment pas être militarisée, de même que l’IA devrait avoir un «changement off» imprenable. Au-dessus de cela, nous devrions normaliser l’effet concret des systèmes d’IA (par exemple, la protection des voitures autonomes) au lieu d’essayer de décrire et de maîtriser le domaine amorphe et rapidement créateur de l’IA.Je suggère trois politiques pour les méthodes de capacités d’apprentissage non naturelles qui arrivent à être encouragé par, mais produire plus loin, les «trois lois de la robotique» comment l’écrivain Isaac Asimov a dévoilé en 1942: Un robot ne peut pas endommager un être humain ou, par inaction, permettre à un être humain de visiter lui causer du tort; un robot doit obéir aux ordres qui lui sont présentés par les gens, sauf lorsque de telles demandes entrent en conflit avec les règles précédentes; De plus, un robot doit garder son style de vie unique étant donné que ce type de sécurité n’entrera pas en conflit en utilisant les deux directives légales précédentes. Ces trois lois sont élégantes mais ambiguës: en quoi consiste exactement le mal en termes d’IA? Je recommanderais des motifs plus précis pour prévenir les blessures liées à l’IA, en fonction d’environ trois lignes directrices. Initialement, un programme d’IA doit publier toute une gamme de directives légales concernant son utilisateur. Cette règle protégerait les méthodes personnelles, d’entreprise et des autorités. Nous ne voulons jamais que l’IA s’engage dans la cyberintimidation, la manipulation de stocks ou les risques terroristes; nous ne voulons pas que le FBI décharge les techniques d’IA qui poussent les gens à commettre des infractions. Nous ne voulons pas d’automobiles autonomes qui traversent des lampes rougeâtres, ou pire encore, des outils d’IA qui violent les traités mondiaux. Notre règlement type doit être modifié afin que nous ne puissions pas affirmer que notre processus d’IA a géré quelque chose que nous ne pouvions pas comprendre ou prévoir complètement. Autrement dit, «Mon IA le fait» ne devrait jamais justifier un comportement illégal. Ma deuxième ligne directrice est qu’un programme d’IA doit évidemment révéler qu’il n’est pas un homme. Lorsque nous avons expérimenté dans le cas des robots d’exploration – des applications qui participeront à un dialogue de plus en plus avancé avec de vrais gens – la société moderne exige des assurances que les méthodes d’IA sont clairement appelées ce genre de. En 2016, un bot appelé Jill Watson, qui a été qualifié d’enseignant. sur un cours en ligne à Georgia Technical, a trompé des étudiants en leur faisant croire qu’il s’agissait d’un être humain. Un cas encore plus grave pourrait être l’utilisation répandue de robots politiques Master-Trump sur les sites Web sociaux dans les jours les mieux notés aux élections de 2016, selon des chercheurs d’Oxford. Mon principe garantirait que les hommes et les femmes sachent quand un bot usurpe l’identité d’une personne. Nous avons certainement observé actuellement, à titre d’exemple, @DeepDrumpf – un bot qui a imité humblement Donald Trump sur Youtube. Les techniques d’IA ne génèrent pas seulement de faux tweets; en outre, ils créent de faux clips vidéo d’informations. Des chercheurs du College of Washington ont récemment dévoilé une imitation vidéo en ligne du précédent PDG, Barack Obama, dans laquelle il semblait convaincant de prononcer des phrases qui avaient été greffées sur un film de lui discutant de quelque chose de complètement différent. Ma troisième astuce est qu’un processus d’IA n’est pas en mesure de conserver ou de divulguer des informations confidentielles sans avoir besoin d’une acceptation explicite de votre façon d’obtenir ces informations. En raison de la capacité exceptionnelle à générer, documenter et évaluer rapidement des informations et des faits, les techniques d’IA ont été dans une situation privilégiée pour obtenir des informations et des faits personnels. Ressentez tous les chats qu’Amazon en ligne Echo – un «haut-parleur intelligent» dans un nombre croissant de propriétés – est au courant, SEO Inside ou les informations que votre enfant pourrait involontairement révéler à un gadget comme une IA Barbie. Même les robots de ménage relativement inoffensifs génèrent des graphiques de votre maison. C’est certainement l’information dont vous avez besoin pour vous assurer que vous contrôlez.