Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER
Zespół Google DeepMind zaprezentował dwa nowe modele sztucznej inteligencji, które opierają się na Gemini 2.0. Tym razem będą one jednak wykorzystywane w robotyce, a Gemini Robotics i Gemini Robotics-ER mają przenieść AI ze świata cyfrowego do tego fizycznego. Google przedstawia Gemini Robotics i Gemini Robotics-ER Ostatnio pisaliśmy o humanoidalnym robocie Agibot GO-1, który ma wykorzystywać […] Artykuł Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.


Zespół Google DeepMind zaprezentował dwa nowe modele sztucznej inteligencji, które opierają się na Gemini 2.0. Tym razem będą one jednak wykorzystywane w robotyce, a Gemini Robotics i Gemini Robotics-ER mają przenieść AI ze świata cyfrowego do tego fizycznego.
Google przedstawia Gemini Robotics i Gemini Robotics-ER
Ostatnio pisaliśmy o humanoidalnym robocie Agibot GO-1, który ma wykorzystywać AI do tego, by lepiej się uczyć i rozpoznawać otoczenie. Teraz przyszła pora na to, by Google odpowiedziało rozwiązaniem, które bazuje na podobnych założeniach.
Do tej pory modele sztucznej inteligencji żyły głównie w świecie cyfrowym, gdzie opierały się na danych związanych z tekstem, dźwiękiem czy obrazem. Google chcąc tworzyć produkty, które będą użyteczne w świecie fizycznym, opracowało dwa nowe modele AI oparte o Gemini 2.0.
Pierwszym z nich jest Gemini Robotics, który jest modelem z językiem wizji (VLA – vision-language-action, wizja-język-działanie), który ma być wykorzystywany przy sterowaniu robotami. Chodzi m.in. o uczenie robotów rzeczy, których te wcześniej nie widziały w trakcie szkolenia.
Gemini Robotics-ER ma być za to zaawansowanym modelem z rozumieniem przestrzennym. Najświeższe modele mają posłużyć do stworzenia nowej generacji robotów humanoidalnych we współpracy z Apptronic.
Dzięki zastosowaniu wspomnianego modelu, taki humanoidalny robot, kiedy zobaczy np. kubek z kawą, sam dopasuje rodzaj uchwytu, który ma zastosować i siłę do tego, by go podnieść. System ma także sprawiać, że roboty będą uczyły się nowych rzeczy poprzez podglądanie tego, co robią przy nich ludzie.
Modele te umożliwiają różnym typom robotów wykonywanie szerszego zakresu zadań w świecie rzeczywistym niż dotychczas. Wprowadzenie modeli Gemini Robotics i Gemini Robotics-ER otwiera nowe możliwości w robotyce, przyczyniając się do zwiększenia wszechstronności, interaktywności i użyteczności robotów w życiu codziennym. Google, informacja prasowa
Oczywiście oba modele są obecnie w fazie testów, ale opublikowane przez Google materiały pokazują, że rozwój AI idzie pełną parą.
Źródło: Google. Zdjęcie otwierające: Google DeepMind / YouTube / zrzut ekranu
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.
Artykuł Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.