Nach einem Blick auf das Foto, jeder Mensch ohne Arbeit kann er sich vorstellen, dass es auf ihn wie ein dreidimensionales Bild. Und selbst wenn ein Teil der Fächer hinter den kulissen (zum Beispiel, sehen wir nur den vorderen Teil der Rückenlehne des Stuhls, aber nicht sehen die hintere), uns ganz es ist leicht vorstellbar, wie es Aussehen wird, den Gegenstand von der Rückseite. Für die KI solche Tricks sind kompliziert, aber vor kurzem eine Gruppe von Ingenieuren des Projekts DeepMind nicht nur gelehrt, künstliche Intelligenz machen die oben erwähnte, sondern auch übersetzen 2D-Bild in ein vollwertiges 3D.
Das neue System erhielt den Namen «Erzeugungs Netzwerk Abfragen» (Generative Query Network — GQN). Um zu trainieren, die künstliche Intelligenz zu analysieren zweidimensionale Szenen, ein Forscherteam zeigte ihm ein Bild von einer Szene aus verschiedenen Kameraperspektiven. Diese Kette von Bildern der KI verwendet, um das Prinzip zu verstehen, werden änderungen an Objekten beim Wechsel der Perspektive. Darüber hinaus, diesen Ansatz zu lernen, vorherzusagen, wie es Aussehen wird die Szene von einem anderen Blickwinkel, betrachtet man nicht nur die Position von Objekten, sondern auch die Beleuchtung. Wie sagte einer der Autoren des Ali eslami,
«Stellen Sie sich vor, dass Sie auf den Mount Everest und Fahrt pro Meter. Der Berg ändert nicht seine Größe, die Ihnen Informationen über die Entfernung bis zu Ihr und Ihrer Größe. Und wenn man sich auf eine Tasse und das gleiche getan haben – seine Position ändert sich. Ungefähr so funktioniert unsere Technologie.»
«Darüber hinaus ist der Algorithmus lernt genau wie ein Mensch. Sehen das gleiche Objekt viele Male, die KI analysiert die Daten, speichert und verwendet dann beim erneuten Zusammenarbeit. Jetzt die künstliche Intelligenz kann ein Labyrinth neu Scannen nur ein paar Fotos von innen.»
Нейросеть Google DeepMind gelernt umwandeln von 2D-Bildern in dreidimensionale Objekte
Vladimir Kuznetsov