Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER

Zespół Google DeepMind zaprezentował dwa nowe modele sztucznej inteligencji, które opierają się na Gemini 2.0. Tym razem będą one jednak wykorzystywane w robotyce, a  Gemini Robotics i Gemini Robotics-ER mają przenieść AI ze świata cyfrowego do tego fizycznego. Google przedstawia Gemini Robotics i Gemini Robotics-ER Ostatnio pisaliśmy o humanoidalnym robocie Agibot GO-1, który ma wykorzystywać […] Artykuł Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.

Mar 12, 2025 - 20:07
 0
Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER
Humanoid robot labeled "A07" standing in a kitchen, interacting with a blue insulated bag on a counter next to a can and a bowl of fruit.

Zespół Google DeepMind zaprezentował dwa nowe modele sztucznej inteligencji, które opierają się na Gemini 2.0. Tym razem będą one jednak wykorzystywane w robotyce, a  Gemini Robotics i Gemini Robotics-ER mają przenieść AI ze świata cyfrowego do tego fizycznego.

Google przedstawia Gemini Robotics i Gemini Robotics-ER

Ostatnio pisaliśmy o humanoidalnym robocie Agibot GO-1, który ma wykorzystywać AI do tego, by lepiej się uczyć i rozpoznawać otoczenie. Teraz przyszła pora na to, by Google odpowiedziało rozwiązaniem, które bazuje na podobnych założeniach.

Do tej pory modele sztucznej inteligencji żyły głównie w świecie cyfrowym, gdzie opierały się na danych związanych z tekstem, dźwiękiem czy obrazem. Google chcąc tworzyć produkty, które będą użyteczne w świecie fizycznym, opracowało dwa nowe modele AI oparte o Gemini 2.0.

Pierwszym z nich jest Gemini Robotics, który jest modelem z językiem wizji (VLA – vision-language-action, wizja-język-działanie), który ma być wykorzystywany przy sterowaniu robotami. Chodzi m.in. o uczenie robotów rzeczy, których te wcześniej nie widziały w trakcie szkolenia.

Gemini Robotics-ER ma być za to zaawansowanym modelem z rozumieniem przestrzennym. Najświeższe modele mają posłużyć do stworzenia nowej generacji robotów humanoidalnych we współpracy z Apptronic.

Dzięki zastosowaniu wspomnianego modelu, taki humanoidalny robot, kiedy zobaczy np. kubek z kawą, sam dopasuje rodzaj uchwytu, który ma zastosować i siłę do tego, by go podnieść. System ma także sprawiać, że roboty będą uczyły się nowych rzeczy poprzez podglądanie tego, co robią przy nich ludzie.

Modele te umożliwiają różnym typom robotów wykonywanie szerszego zakresu zadań w świecie rzeczywistym niż dotychczas. Wprowadzenie modeli Gemini Robotics i Gemini Robotics-ER otwiera nowe możliwości w robotyce, przyczyniając się do zwiększenia wszechstronności, interaktywności i użyteczności robotów w życiu codziennym. Google, informacja prasowa

Oczywiście oba modele są obecnie w fazie testów, ale opublikowane przez Google materiały pokazują, że rozwój AI idzie pełną parą.

Źródło: Google. Zdjęcie otwierające: Google DeepMind / YouTube / zrzut ekranu

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Artykuł Tego AI możesz dotknąć. Google pokazało Gemini Robotics i Robotics-ER pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.