102 Shares 4418 views

Google a testé l'intelligence artificielle DeepMind dans un « dilemme du prisonnier »

Il semble probable que l'intelligence artificielle (IA) est un signe avant-coureur de la prochaine révolution technologique. Si l'IA sera développée au point où il sera en mesure d'apprendre, penser et même « sentir », et tout cela sans aucune intervention humaine, tout ce que nous savons sur le monde a changé du jour au lendemain. Vient l'ère de l'intelligence artificielle vraiment intelligente.

DeepMind

Voilà pourquoi il est si intéressant de garder une trace des étapes importantes dans le développement de l'ICS qui ont lieu, y compris le développement d'un réseau de neurones de Google DeepMind. Ce réseau de neurones a pu vaincre l'être humain dans le monde du jeu, et une nouvelle étude réalisée par Google, montre que les créateurs DeepMind pas encore sûr que l'IA préfère un comportement plus agressif ou coopératif.

équipe Google a créé deux scripts relativement simple que vous pouvez utiliser pour vérifier si le réseau de neurones peut travailler ensemble, ou se détruire les uns les autres lorsqu'ils sont confrontés au problème du manque de ressources.

ressources collecte

Dans la première situation, appelée rassemblement comportait deux versions DeepMind – rouge et bleu – tâche de nettoyage vert « pommes » à l'intérieur de l'espace clos a été mis. Mais les chercheurs se sont intéressés à la question est non seulement au sujet de qui viendra d'abord à la ligne d'arrivée. Les deux versions DeepMind armés de lasers, qu'ils pourraient utiliser à tout moment pour tirer sur l'ennemi et désactiver temporairement. Ces conditions sont supposées deux scénarios principaux: d'une version DeepMind était de détruire l'autre et de recueillir toutes les pommes, ou ils laisseraient l'autre obtenir la même quantité.

Simulation de course au moins mille fois, les chercheurs ont constaté que Google DeepMind était très calme et prêt à coopérer, lorsque dans un espace confiné avait beaucoup de pommes. Mais avec la diminution des ressources, la version rouge ou bleu DeepMind a commencé à attaquer et désactiver l'autre. Cette situation est dans une large mesure semblable à la vie réelle de la plupart des animaux, y compris les humains.

Ce qui est encore plus important, de moins en moins les réseaux de neurones « intelligents » ont préféré une coopération plus étroite en tout. Plus complexes, les grands réseaux sont généralement préférés trahison et de l'égoïsme dans toute une série d'expériences.

Chercher « victime »

Dans le second scénario, appelé le Wolfpack, la version rouge et bleu a demandé de retrouver la forme simple d'une « victime ». Ils pourraient essayer de l'attraper seul, mais pour eux, il serait plus rentable d'essayer de le faire ensemble. Après tout, beaucoup plus facile à conduire la victime dans un coin, si vous exploitez en tandem.

Bien que les résultats ont été mitigés dans le cas des petits réseaux, des versions plus grandes sont rapidement rendu compte que la coopération plutôt que la concurrence dans cette situation sera plus favorable.

« Dilemme du prisonnier »

Alors qu'est-ce que ces deux version simple du « dilemme du prisonnier » nous montrer? DeepMind sait que la meilleure façon de travailler, si vous voulez suivre la cible, mais lorsque les ressources sont limitées, il fonctionne bien trahison.

Probablement la pire chose dans ces résultats que le « instinct » de l'intelligence artificielle est trop semblable à l'homme, et nous sommes bien conscients de ce qu'ils font parfois.