RobocikowoRobocikowo
RobocikowoRobocikowo
Wiadomości
Organizacje
Poznaj AI
​
CtrlK
​

Tag: Vision language action models

Okładka: Robotyka zyska zmysł dotyku. Nowy paradygmat multimodalny w AI
News7 kwietnia 2026

Robotyka zyska zmysł dotyku. Nowy paradygmat multimodalny w AI

Integracja sygnałów dotykowych z modelami wizyjno-językowymi staje się kluczowym filarem rozwoju inteligencji ucieleśnionej (Embodied AI). Nowa praca badawcza systematyzuje podejście do fuzji multimodalnej, wskazując drogę do robotów zdolnych do precyzyjnej manipulacji obiektami w nieustrukturyzowanym środowisku.

Embodied IntelligenceTactile SensingMultimodal Fusion
Okładka: Sharpa Robotics demonstruje obieranie jabłka. Model MoDE-VLA w akcji
News12 marca 2026

Sharpa Robotics demonstruje obieranie jabłka. Model MoDE-VLA w akcji

Firma Sharpa Robotics zaprezentowała robota zdolnego do obierania jabłka przy użyciu dwóch zręcznych, przypominających ludzkie dłoni. Wykorzystano do tego nowatorską architekturę MoDE-VLA, która rozwiązuje problem masowego zbierania danych i precyzyjnego sterowania na poziomie pojedynczych palców. To sygnał, że bimanualna manipulacja obiektami o nieregularnych kształtach wychodzi poza fazę wczesnych eksperymentów.

Humanoid RoboticsBimanual ManipulationSharpa Robotics
X / @robocikowo

© 2026 Robocikowo.