Technology

Google udoskonala sztuczną inteligencję

Po cichu Google wypuścił artykuł naukowy, który może okazać się kamieniem milowym w rozwoju i przyszłości samouczących się maszyn.

Praca naukowa nazywa się „Jeden model, by nauczyć się ich wszystkich” i przedstawia szablon na stworzenie pojedynczego modelu uczących się systemów, który może bardzo dobrze wykonywać liczne zadania.

Multimodel, jak nazywają go programiści Google, został wyszkolony w różnorakich zadaniach, takich jak tłumaczenia, rozbiór gramatyczny zdań, rozpoznawanie mowy, rozpoznawanie obrazów i wykrywanie obiektów. Choć wyniki badań nie wykazują radykalnej poprawy w stosunku do istniejących już projektów, to obrazują, że jedoczesne szkolenie samouczącej się maszyny w kilku zadaniach może poprawić jej całościową wydajność.

Przykładowo, MultiModel poprawił swoją precyzję w tłumaczeniach, mowie i gramatyce zdań, w przypadku gdy był szkolony we wszystkich operacjach, które zdolny jest wykonywać, w porównaniu do modelu, który szkolony był tylko w jednym zadaniu.

Artykuł Google może dostarczyć wzornika do rozwoju przyszłościowych samouczących się maszyn, które będą miały szersze zastosowanie i będą wykazywać się większą dokładnością niż dość ograniczone rozwiązania, które stanowią obecnie większość dostępnych na rynku maszyn. Ponadto, przedstawione techniki mogą się przyczynić do obniżenia ilości danych szkoleniowych potrzebnych do stworzenia algorytmu użytecznego w dobrze działającej samouczącej się maszynie.

Jak to możliwe? Wyniki zespołu Google pokazują, że jeśli MultiModel szkolony jest jednocześnie na wszystkich zadaniach, które jest w stanie wykonywać, to jego precyzja poprawia się w przypadku zadań wymagających mniejszej ilości szkoleniowych danych. To dość ważne, gdyż skompletowanie pełnego zestawu szkoleniowych danych w niektórych obszarach może okazać się nie lada wyzwaniem.

Należy podkreślić, że Google nie uważa, że odkrył idealny algorytm, który jest w stanie nauczyć się wszystkiego na raz. Jak zresztą sugeruje jego nazwa, sieć MultiModel zawiera po prostu systemy, które są dostosowane do podejmowania różnych wyzwań, razem z systemami, które pomogą dokonać  bezpośredniego wkładu danych do tych eksperckich algorytmów. Takie podejście Google może być użyteczne w dalszym rozwoju podobnych systemów, które łączą w sobie różnorakie dziedziny.

To jednak nie koniec drogi – więcej badań przed Google. Dotychczasowe rezultaty nie zostały jeszcze zweryfikowane i ciężko prorokować, jak te badania mogą zostać wykorzystane w innych domenach. Ekipa Google Brain udostępniła kod MultiModel jako część otwarto-źródłowego projektu TensorFlow, tak że inne osoby mogą też eksperymentować z systemem i przekonać się na własnej skórze.

Google ma przed sobą kilka jasnych ścieżek wiodących ku poprawie systemu. Ekipa sama przyznała, że nie spędziła zbyt wiele czasu na optymalizacji niektórych stałych parametrów systemu (znanych jako hyperparametry w języku branżowych samouczących się maszyn) i że przeprowadzenie bardziej kosztownego procesu „podrasowania” mogłoby poprawić precyzję systemu w przyszłości.

 

Źródła:

https://arxiv.org/abs/1706.05137

https://venturebeat.com/2017/06/19/google-advances-ai-with-one-model-to-learn-them-all/