Voici pourquoi les scientifiques pensent que vous devriez être inquiet au sujet de l`intelligence artificielle
Au cours des derniers mois, vous avez pu lire la couverture entourant un article, co-écrit par Stephen Hawking, discuter des risques associés à l`intelligence artificielle. L`article suggère que l`IA peut poser un risque grave pour la race humaine. Hawking est pas seul là - Elon Musk et Peter Thiel sont les deux personnalités intellectuelles qui ont exprimé des préoccupations similaires (Thiel a investi plus de 1,3 million $ des recherches sur la question et les solutions possibles).
Contenu
- Video: Джефф Хоукинс говорит о том, как наука о мозге изменит компьютеры
- Qu`est-ce que l`intelligence?
- L`espace des valeurs
- Récursive auto-amélioration
- Video: Кэри Муллис о том, чем занимаются учёные
- Video: concevoir le futur - le film
- Évaluation et atténuation des risques
- Video: Натан Мирволд об археологии, фотоохоте, барбекю..
La couverture de l`article Hawking et les commentaires de Musc ont été, de ne pas mettre trop insister là-dessus, un peu jovial. Le ton a été très « regarder cette chose bizarre tous ces geeks sont inquiets. » Peu de considération est donnée à l`idée que si certaines des personnes les plus intelligentes sur Terre vous avertissons que quelque chose pourrait être très dangereux, il pourrait bien être la peine d`écouter.
Cela est compréhensible - l`intelligence artificielle prendre le monde entier semble certainement très étrange et peu plausible, peut-être à cause de l`attention énorme déjà donné à cette idée par les auteurs de science-fiction. Alors, quel est sain d`esprit tous ces nominalement, les gens rationnels si effrayés?
Video: Джефф Хоукинс говорит о том, как наука о мозге изменит компьютеры
Qu`est-ce que l`intelligence?
Pour parler du danger d`Intelligence Artificielle, il pourrait être utile de comprendre ce qu`est l`intelligence. Afin de mieux comprendre la question, nous allons jeter un oeil à une architecture AI jouet utilisé par les chercheurs qui étudient la théorie du raisonnement. Ce jouet AI est appelé Aixi, et a un certain nombre de propriétés utiles. Il est des objectifs peut être arbitraire, il adapte bien avec la puissance de calcul, et sa conception interne est très propre et simple.
De plus, vous pouvez mettre en œuvre des versions simples, pratiques de l`architecture qui peut faire des choses comme le jeu Pacman, si vous voulez. Aixi est le produit d`un chercheur AI nommé Marcus Hutter, sans doute l`expert avant tout sur l`intelligence algorithmique. Cela lui parle dans la vidéo ci-dessus.
Aixi est étonnamment simple: il comporte trois volets principaux: apprenant, planificateur, et fonction d`utilité.
- le apprenant prend dans les chaînes de bits qui correspondent à l`entrée sur le monde extérieur, et recherche grâce à des programmes informatiques jusqu`à ce qu`il trouve ceux qui produisent ses observations en sortie. Ces programmes, ensemble, permettent de faire des suppositions sur ce que l`avenir ressemblera, simplement en exécutant chaque programme avant et la pondération de la probabilité du résultat par la durée du programme (une mise en œuvre du rasoir d`Occam).
- le planificateur recherches par des actions possibles que l`agent pourrait prendre, et utilise le module de l`apprenant pour prédire ce qui se passerait si elle a chacun d`entre eux. Il les évalue ensuite en fonction de bon ou mauvais les résultats prévus sont, et choisit le cours de l`action qui maximise la bonté du résultat escompté par la probabilité attendue d`y parvenir.
- Le dernier module, le fonction d`utilité, est un programme simple qui prend dans une description d`un état futur du monde, et calcule un score d`utilité pour elle. Ce score d`utilité est bonne ou mauvaise ce résultat est, et est utilisé par le planificateur d`évaluer l`état du monde futur. La fonction utilitaire peut être arbitraire.
- Pris ensemble, ces trois composantes forment un optimiseur, qui permet d`optimiser pour un objectif particulier, quel que soit le monde, il se trouve.
Ce modèle simple représente une définition de base d`un agent intelligent. L`agent étudie son environnement, construit des modèles de celui-ci, et utilise ensuite ces modèles pour trouver le plan d`action qui permettra de maximiser les chances de lui obtenir ce qu`il veut. Aixi est une structure similaire à une IA qui joue aux échecs, ou d`autres jeux avec des règles connues - sauf qu`il est en mesure de déduire les règles du jeu en jouant, à partir de zéro connaissances.
Aixi, assez de temps pour calculer, peut apprendre à optimiser tout système pour tout objectif, mais complexe. Il est généralement un algorithme intelligent. Notez que ce n`est pas la même chose que d`avoir l`intelligence humaine comme (IA biologiquement inspirée est sujet différent tout à fait). En d`autres termes, Aixi peut être en mesure de déjouer tout être humain à une tâche intellectuelle (donnée assez de puissance de calcul), mais il pourrait ne pas être conscient de sa victoire.Giovanni Idili de OpenWorm: Cerveaux, Worms, et l`intelligence artificielleGiovanni Idili de OpenWorm: Cerveaux, Worms, et l`intelligence artificielleSimulation d`un cerveau humain est une façon large, mais un projet open source prend les premiers pas vitales, en simulant la neurologie et la physiologie de l`un des animaux les plus simples connus de la science. Lire la suite
En tant que AI pratique, Aixi a beaucoup de problèmes. Tout d`abord, il n`a aucun moyen de trouver les programmes qui produisent la sortie ce qui l`intéresse. Il est un algorithme de force brute, ce qui signifie qu`il est pas pratique si vous ne disposeriez pas d`un ordinateur puissant arbitraire qui traînent. Toute mise en œuvre effective de Aixi est par nécessité une approximation, et (aujourd`hui), généralement un assez brut. Pourtant, Aixi nous donne un aperçu théorique de ce qu`est un puissant intelligence artificielle pourrait ressembler, et comment il pourrait raisonner.
L`espace des valeurs
Si vous avez fait une programmation informatique, vous savez que les ordinateurs sont odieusement, pédante et mécaniquement littéral. La machine ne sait pas ou de soins ce que vous voulez faire: il ne fait que ce qu`il a été dit. Ceci est une notion importante quand on parle de l`intelligence de la machine.Les bases de programmation informatique 101 - Variables et types de donnéesLes bases de programmation informatique 101 - Variables et types de donnéesAprès avoir présenté et a parlé un peu de la programmation orientée objet avant et où son homonyme vient, je pensais qu`il est temps de passer par les bases absolues de la programmation d`une manière spécifique non linguistique. Ce...Lire la suite
Avec cela à l`esprit, imaginez que vous avez inventé un puissant intelligence artificielle - vous êtes avec des algorithmes intelligents pour générer des hypothèses qui correspondent à vos données, et pour générer de bons plans candidats. Votre AI peut résoudre des problèmes généraux, et peut le faire efficacement sur le matériel informatique moderne.
Maintenant, il est temps de choisir une fonction d`utilité, qui déterminera les valeurs AI. Que devez-vous demander à la valeur? Rappelez-vous, la machine sera odieusement, pédante littérale de tout ce que la fonction que vous lui demandez de maximiser, et ne cessera jamais - il n`y a pas fantôme dans la machine qui jamais « réveille » et décider de changer sa fonction d`utilité, quel que soit le nombre amélioration de l`efficacité, il fait à son propre raisonnement.
Eliezer Yudkowsky mis de cette façon:
Comme dans toute la programmation informatique, le défi fondamental et la difficulté essentielle de l`IAG est que si nous écrivons le code erroné, l`IA ne regardera pas automatiquement notre code, marquer les erreurs, comprendre ce que nous voulions dire vraiment dire et faire au lieu. Les non-programmeurs imaginent parfois un AGI, ou des programmes informatiques en général, comme étant analogue à un serviteur qui suit les ordres sans broncher. Mais ce n`est pas que l`IA est absolument obéissant à son code- plutôt, l`IA simplement est le code.
Si vous essayez d`utiliser une usine, et vous dire la machine à la valeur faisant paperclips, puis donnez le contrôle des tas de robots d`usine, vous pourriez revenir le lendemain pour constater qu`il est à court de toute autre forme de matière première, tué tous vos employés et fait paperclips de leurs restes. Si, dans une tentative de droite de votre mal, vous reprogrammez la machine simplement pour faire tout le monde heureux, vous pouvez retourner le lendemain pour trouver mettre les fils dans le cerveau des gens.
Le point ici est que les humains ont beaucoup de valeurs complexes que nous supposons sont partagés implicitement avec d`autres esprits. Nous apprécions l`argent, mais nous apprécions la vie humaine plus. Nous voulons être heureux, mais nous ne voulons pas nécessairement mettre les fils dans notre cerveau pour le faire. Nous ne pensons pas la nécessité de clarifier ces choses quand nous donner des instructions à d`autres êtres humains. Vous ne pouvez pas faire ce genre d`hypothèses, cependant, lorsque vous concevez la fonction d`utilité d`une machine. Les meilleures solutions sous les mathématiques sans âme d`une fonction utilitaire simple sont souvent des solutions que les êtres humains seraient NIX pour être moralement horrible.
Permettre une machine intelligente pour maximiser une fonction d`utilité naïve sera presque toujours catastrophique. Qu`Oxford philosophe Nick Bostom dit,
Nous ne pouvons pas allègrement supposer qu`un superintelligence nécessairement partager l`une des valeurs finales Stéréotype associées à la sagesse et le développement intellectuel curiosité l`homme-scientifique, le souci bienveillant pour les autres, l`illumination spirituelle et la contemplation, le renoncement de thésaurisation matériel, un goût pour la culture raffinée ou les plaisirs simples dans la vie, l`humilité et l`abnégation, et ainsi de suite.
Pour aggraver les choses, il est très, très difficile de préciser la liste complète et détaillée de tout ce que la valeur des personnes. Il y a beaucoup de facettes à la question, et oubliant même un seul est potentiellement catastrophique. Même parmi ceux que nous sommes conscients, il y a des subtilités et les complexités qui rendent difficile de les écrire systèmes d`équations aussi propre que nous pouvons donner à une machine en fonction utilitaire.
Certaines personnes, à la lecture de cela, concluent que la construction avec des fonctions AIs utilité est une très mauvaise idée, et nous devrions les concevoir différemment. Ici, il y a aussi de mauvaises nouvelles - vous pouvez prouver, formellement, que tout agent qui n`a pas quelque chose d`équivalent à une fonction d`utilité ne peut pas avoir des préférences cohérentes à propos du futur.
Récursive auto-amélioration
Une solution au dilemme ci-dessus est de ne pas donner des agents AI la possibilité de blesser les gens: leur donner seulement les ressources dont ils ont besoin pour résoudre le problème de la façon dont vous l`intention d`être résolu, les surveiller de près, et les tenir à l`écart des possibilités de faire grand mal. Malheureusement, notre capacité à contrôler des machines intelligentes est très suspect.
Même s`ils ne sont pas beaucoup plus intelligents que nous, la possibilité existe pour la machine à « bootstrap » - améliorer la collecte de matériel ou d`apporter des améliorations à son propre code qui le rend encore plus intelligent. Cela pourrait permettre à une machine à saute-mouton intelligence humaine par plusieurs ordres de grandeur, outsmarting humains dans le même sens que les humains outsmart chats. Ce scénario a été proposé par un homme nommé I. J. Good, qui a travaillé sur le projet crypte-analyse Enigma avec Alan Turing pendant la Seconde Guerre mondiale. Il a appelé une « explosion Intelligence,« et décrit la question comme ceci:
Qu`un une machine ultra-intelligente être définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de tout homme, si habile. Depuis la conception des machines est l`une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir encore mieux il y aurait alors machines- être sans conteste une « explosion de l`intelligence », et l`intelligence de l`homme serait laissé loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l`homme ne doit jamais faire, à condition que la machine est assez docile.
Video: Кэри Муллис о том, чем занимаются учёные
Il est pas garanti qu`une explosion de renseignement est possible dans notre univers, mais il ne semble probable. Au fil du temps, les ordinateurs et obtenir un aperçu plus rapide de base sur l`intelligence accumulation. Cela signifie que l`exigence de ressources pour faire que le dernier saut à un général, l`intelligence boostrapping baisse plus bas. À un certain moment, nous nous trouvons dans un monde où des millions de personnes peuvent conduire à un Best Buy et ramasser le matériel et la documentation technique dont ils ont besoin pour construire une auto-amélioration de l`intelligence artificielle, que nous avons déjà établi peut être très dangereux. Imaginez un monde où vous pouvez faire des bombes atomiques avec des bâtons et des pierres. Voilà le genre d`avenir que nous discutons.
Et, si une machine ne fait ce saut, il pourrait très rapidement dépasser l`espèce humaine en termes de productivité intellectuelle, la résolution de problèmes d`un milliard humains ne peuvent pas résoudre, de la même manière que les humains peuvent résoudre les problèmes d`un milliard de chats peuvent » t.
Video: Concevoir le Futur - Le film
Il pourrait développer des robots puissants (ou bio ou nanotechnologies) et un gain relativement rapidement la capacité de remodeler le monde comme il lui plaît, et il serait très peu que nous pouvions faire à ce sujet. Une telle intelligence pourrait dépouiller la Terre et le reste du système solaire pour les pièces de rechange sans trop de peine, de sa façon de faire tout ce que nous avons dit à. Il semble probable qu`une telle évolution serait catastrophique pour l`humanité. Une intelligence artificielle ne doit pas être malveillant de détruire le monde, simplement indifférent catastrophiquement.
Comme dit le proverbe, « La machine n`aime pas ou que vous détestez, mais vous sont faites d`atomes qu`il peut utiliser pour d`autres choses. »
Évaluation et atténuation des risques
Donc, si l`on admet que la conception d`une puissante intelligence artificielle qui maximise une fonction utilitaire simple est mauvaise, combien sont des problèmes que nous vraiment? Depuis combien de temps nous avons obtenu avant qu`il ne devienne possible de construire ce genre de machines? Il est, bien sûr, difficile à dire.
Video: Натан Мирволд об археологии, фотоохоте, барбекю..
Les développeurs d`intelligence artificielle sont faire des progrès. Les machines que nous construisons et les problèmes qu`ils peuvent résoudre ont été en croissance constante portée. En 1997, Deep Blue pourrait jouer aux échecs à un niveau supérieur à un Grandmaster humain. En 2011, Watson d`IBM peut lire et synthétiser les informations assez profondément et assez rapidement pour battre les meilleurs joueurs humains à une question ouverte et jeu réponse truffé de jeux de mots et jeux de mots - c`est beaucoup de progrès en quatorze ans.7 sites internet incroyable de voir les dernières en programmation Intelligence artificielle7 sites internet incroyable de voir les dernières en programmation Intelligence artificielleL`intelligence artificielle est pas encore HAL de 2001: L`Odyssée de l`espace ... mais nous obtenons terriblement proche. Effectivement, un jour, il pourrait être aussi similaire aux potboilers de science-fiction étant brassés par Hollywood ....Lire la suite
En ce moment, Google investit massivement dans la recherche d`apprentissage profond, une technique qui permet la construction de réseaux de neurones puissants en construisant des chaînes de réseaux de neurones plus simples. Cet investissement est ce qui lui permet de faire de sérieux progrès dans le discours et la reconnaissance d`image. Leur acquisition la plus récente dans la région est une start-up profonde d`apprentissage appelé DeepMind, pour lesquels ils ont payé environ 400 millions $. Dans le cadre des termes de l`accord, Google a décidé de créer un comité d`éthique pour veiller à ce que leur technologie AI se développe en toute sécurité.
En même temps, IBM développe Watson 2.0 et 3.0, les systèmes qui sont capables de traiter des images et de la vidéo et de défendre en faisant valoir des conclusions. Ils ont donné un moyen simple, rapide démonstration de la capacité de Watson à synthétiser les arguments pour et contre un sujet dans la vidéo de démonstration ci-dessous. Les résultats sont imparfaits, mais une étape impressionnante indépendamment.
Aucune de ces technologies elles-mêmes sont dangereux en ce moment: l`intelligence artificielle comme un champ encore du mal à égaler les capacités maîtrisées par les jeunes enfants. Programmation informatique et conception AI est très difficile, les compétences cognitives de haut niveau, et sera probablement la dernière tâche humaine que les machines deviennent compétents à. Avant de passer à ce moment-là, nous avons aussi des machines omniprésentes qui peut conduire, pratiquer la médecine et le droit, et probablement d`autres choses aussi, avec des conséquences économiques profondes.Voici comment nous allons arriver à un monde rempli de voitures DriverlessVoici comment nous allons arriver à un monde rempli de voitures DriverlessLa conduite est une tâche fastidieuse, dangereux et exigeant. Se pourrait-il un jour automatisé par la technologie automobile de Google driverless?Lire la suite
Le temps va nous prendre pour arriver au point d`inflexion de l`amélioration de soi dépend juste de la rapidité avec laquelle nous avons de bonnes idées. les avancées technologiques de ce genre de prévision sont notoirement difficiles. Il ne semble pas déraisonnable que nous pourrions être en mesure de construire AI forte dans le temps de vingt ans, mais il ne semble pas aussi déraisonnable que cela pourrait prendre quatre-vingts ans. De toute façon, il va se passer par la suite, et il y a des raisons de croire que quand cela arrive, il sera extrêmement dangereux.
Donc, si l`on admet que cela va être un problème, que pouvons-nous faire à ce sujet? La réponse est de faire en sorte que les premières machines intelligentes sont en sécurité, afin qu`ils puissent amorcer jusqu`à un niveau significatif de l`intelligence, et nous protéger des machines dangereuses faites plus tard. Cette « safeness` est définie par le partage de valeurs humaines, et être prêt à protéger et à aider l`humanité.
Parce que nous ne pouvons pas rester réellement vers le bas et programme les valeurs humaines dans la machine, il sera probablement nécessaire de concevoir une fonction utilitaire qui nécessite la machine pour observer les humains, en déduire nos valeurs, et puis essayer de les maximiser. Afin de rendre ce processus de sécurité de développement, il peut également être utile de développer des intelligences artificielles qui sont spécifiquement conçus ne pas d`avoir des préférences sur leurs fonctions d`utilité, ce qui nous permet de les corriger ou les mettre hors tension sans résistance si elles commencent à se égarer au cours du développement.
Bon nombre des problèmes que nous devons résoudre afin de construire une intelligence sûre de la machine sont mathématiquement difficile, mais il y a des raisons de croire qu`ils peuvent être résolus. Un certain nombre d`organisations différentes travaillent sur la question, y compris l`avenir de l`Institut de l`humanité à Oxford, et l`Institut de recherche Machine Intelligence (qui FUNDS Peter Thiel).
MIRI est particulièrement intéressé à développer les mathématiques nécessaires à la construction AI bienvenus. S`il se avère que bootstrapping l`intelligence artificielle est possible, puis de développer ce genre de technologie « AI bienvenus » Tout d`abord, en cas de succès, peut liquider étant les humains chose la plus importante ont jamais fait.
Pensez-vous que l`intelligence artificielle est dangereux? Êtes-vous préoccupé par ce que l`avenir de la grippe aviaire pourrait apporter? Partagez vos pensées dans la section des commentaires ci-dessous!