Geniale AI Konvertiert Bilder von Lebensmitteln Zu einer Liste von Zutaten

Bild: Social Media Dinner/Flickr

Forscher am MIT entwickelt haben, tief-learning-Algorithmus, können erstellen Sie eine Liste der Zutaten und auch Rezepte empfehlen nach einem Blick auf Fotos von Lebensmitteln. Die künstlich intelligente system braucht noch etwas Feintuning, aber das tool könnte schließlich helfen uns zu lernen, zu Kochen, Kalorien zählen, und verfolgen Sie unsere Essgewohnheiten.

Mir vorstellen, dass er in der Lage, snap ein Bild von einer Mahlzeit, die Sie verschlingt, in Ihrem Lieblings-restaurant und mit einer smartphone-app stellen Sie mit der Liste der Zutaten, und sogar ein Rezept, um zu helfen Sie es zu Hause machen. Forscher vom MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) genommen haben, uns einen Schritt näher an dieses Ziel von Anfang an zu trainieren, ein system, genau das zu tun.

Mit machine-learning, analysiert das Programm noch Bilder von Essen, und verweisen auf eine massive Datenbank, die es dann prognostiziert eine Liste der Zutaten und empfiehlt ein Rezept. In tests wurde das system in der Lage, zum abrufen der richtigen Rezept-rund 65 Prozent der Zeit. Das ist eine ziemlich anständige Erfolgsquote, vor allem wenn man bedenkt, wie kompliziert und vielfältig, einige Mahlzeiten bekommen können.

Damit es funktioniert, ein Forschungs-team unter der Leitung von CSAIL student Nicholas Hynes gesammelten Daten von websites wie Alle Rezepte und Food.com um eine Datenbank zu erstellen, genannt Recipe1M, mit über einer million Rezepte. Alle Rezepte sind versehen mit Informationen über die Zutaten gefunden in einer Vielzahl von Mahlzeiten. Ein neuronales Netz gesetzt wurde lose auf diese Fundgrube von Daten, die Suche nach mustern und verbindungen zwischen den Aufnahmen der Nahrung und die passende Zutaten und Rezepte.

Also wenn da ein Foto von einen muffin, zum Beispiel, das system, genannt Pic2Recipe, könnte richtig identifizieren, die Zutaten wie Mehl, Eier und butter. Es schlägt dann verschiedene Rezepte, die sich im Recipe1M Datenbank, die es zahlen, ist der nächste match.

Als Hynes sagte Gizmodo, das system ist mehr als nur ein Lebensmittel-Anerkennung-Programm.

“Dass das Programm erkennt, Essen ist wirklich nur ein Nebeneffekt, wie wir die verfügbaren Daten zur überwachung der [Lern -] der Rezepte und Bilder,” sagte Hynes. “Das, was wir wirklich zu erkunden, sind die [versteckte] Konzepte erfasst werden [Darstellungen]. Zum Beispiel hat das Modell entdeckte die Bedeutung von ‘fried’ und wie es sich auf ‘gedämpft?’ Wir glauben, dass es hat.” Zu dem fügte er hinzu: “der Teil, Der unterscheidet [system] aus so etwas wie reverse-image-Suche ist, dass wir direkt aus der Bild-Rezept, statt einfach Rückkehr das Rezept im Zusammenhang mit der nearest neighbor Bild.”

Das system entwickelte sich gut, um mit relativ einfachen Lebensmitteln, wie cookies oder muffins. Aber wenn Sie konfrontiert mit komplexen und mehrdeutigen Lebensmittel, wie sushi-Rollen oder smoothies, das system kämpfte. Es hatte auch eine harte Zeit, analysieren Lebensmittel, für die gibt es eine nahezu unüberschaubare Menge von Rezepten. Lasagne ist ein tolles Beispiel. Es wird wie eine gajillion Möglichkeiten, um eine Lasagne, so die CSAIL-Forscher musste sicherstellen, dass die KI nicht “bestrafen” oder ausschließen Rezepte, die waren ähnlich, wenn Sie versuchen zu analysieren, eine Lasagne aus einem anderen. Ein work-around war, um die AI zu sehen, wenn die Zutaten in jedem Rezept waren im Allgemeinen ähnlich wie vor dem Vergleich die Rezepte selbst.

Blick in die Zukunft, die Forscher hoffen, zu trainieren das system, so dass Sie besser verstehen können, wie das Essen zubereitet (z.B. Kochen, braten, slicing, dicing), und zu sagen, die Unterschiede zwischen Lebensmittel-Typen (z.B. Champignons und Zwiebeln). Sie sind auch Hoffnung, schalten Sie das system in eine “dinner aide,” wo eine person kann der Schlüssel in Ihrer Essgewohnheiten und eine Liste der Nahrungsmittel in der Heimat, und AI entwirft eine Mahlzeit, die basierend auf diese Einschränkungen.

“Das könnte den Menschen helfen, herauszufinden, was in Ihrer Nahrung, wenn Sie nicht explizit Nährwertangaben,” sagte Hynes. “Zum Beispiel, wenn Sie wissen, welche Zutaten ging in ein Gericht, aber nicht die Menge, Sie können nehmen Sie ein Foto, geben Sie die Zutaten, und führen Sie das Modell zu finden, ein ähnliches Rezept mit Mengen bekannt, und dann diese Informationen verwenden, um die Ungefähre Ihre eigene Mahlzeit.”

Konzeptionell sollte das system auch in der Lage, eine Kalorien-Konto, und in der Tat, Hynes ist derzeit auf der Suche in diesem.

Es werde eine Weile dauern, bis Sie sehen, eine app wie diese auf Ihrem smartphone, aber selbst wenn es nicht erscheint, ein system wie dieses für immer dienen als grobe Orientierung. Nur weil Sie wissen, die Zutaten einer Mahlzeit und wie es gewesen sein könnte, zusammen nicht plötzlich meinst, du bist ein Meisterkoch.

Die CSAIL-team plant, Ihre Ergebnisse später in diesem Monat in der Computer Vision and Pattern Recognition Konferenz in Honolulu.


Date:

by