hEnka_robotics's profile picture. 電気通信大学 / University of Electro-Communications

自律移動 脚ロボの強化学習 アームの模倣学習 /
SLAM&Nav, Reinforcement learning for legged robots, Imitation Learning for robot arms

変化 hEnka

@hEnka_robotics

電気通信大学 / University of Electro-Communications 自律移動 脚ロボの強化学習 アームの模倣学習 / SLAM&Nav, Reinforcement learning for legged robots, Imitation Learning for robot arms

مثبتة

初めの一歩!! The First Step!! @pizac__様と共同開発です


変化 hEnka أعاد

本日はロボメカ工房30周年記念OBOG会にご参加いただきありがとうございました!全体で100人以上の方々のお越しいただきました 学生会館での報告会、立食パーティー、LT会などでとても盛り上がることができました これからも何卒ロボメカ工房をよろしくお願いします!! #ロボコン #ロボメカ工房

robomech_uec's tweet image. 本日はロボメカ工房30周年記念OBOG会にご参加いただきありがとうございました!全体で100人以上の方々のお越しいただきました

学生会館での報告会、立食パーティー、LT会などでとても盛り上がることができました

これからも何卒ロボメカ工房をよろしくお願いします!!
#ロボコン #ロボメカ工房
robomech_uec's tweet image. 本日はロボメカ工房30周年記念OBOG会にご参加いただきありがとうございました!全体で100人以上の方々のお越しいただきました

学生会館での報告会、立食パーティー、LT会などでとても盛り上がることができました

これからも何卒ロボメカ工房をよろしくお願いします!!
#ロボコン #ロボメカ工房
robomech_uec's tweet image. 本日はロボメカ工房30周年記念OBOG会にご参加いただきありがとうございました!全体で100人以上の方々のお越しいただきました

学生会館での報告会、立食パーティー、LT会などでとても盛り上がることができました

これからも何卒ロボメカ工房をよろしくお願いします!!
#ロボコン #ロボメカ工房
robomech_uec's tweet image. 本日はロボメカ工房30周年記念OBOG会にご参加いただきありがとうございました!全体で100人以上の方々のお越しいただきました

学生会館での報告会、立食パーティー、LT会などでとても盛り上がることができました

これからも何卒ロボメカ工房をよろしくお願いします!!
#ロボコン #ロボメカ工房

変化 hEnka أعاد

World Robot Summit 2025 プラント災害チャレンジ優勝🏆

robohase01's tweet image. World Robot Summit 2025 プラント災害チャレンジ優勝🏆

変化 hEnka أعاد

ラムダ技術部より すごいものを作ろうとして行き詰まってる後輩に届け #技育祭

maton_Bridge's tweet image. ラムダ技術部より
すごいものを作ろうとして行き詰まってる後輩に届け
#技育祭

変化 hEnka أعاد

Fundamental spatial and temporal understanding is the bedrock upon which robots will learn motor control. These types of Embodied Reasoning capabilities enable policy learning but also inference abilities like image or video conditioning. We just released a new SOTA ER model!


変化 hEnka أعاد

手先感覚の追加をば。 (動画のアスペクト比がバグってたので、再アップ…)


変化 hEnka أعاد

カバーできてきた

CH1H160's tweet image. カバーできてきた

なつい Xに登録した日を覚えていますか? #MyXAnniversary

hEnka_robotics's tweet image. なつい
Xに登録した日を覚えていますか? #MyXAnniversary

これ作ったmoomooロボットのこと知らないっぽい

フィジカルAIサプライチェーン 【半導体チップ関連】 ・NVIDIA( $NVDA /米国) ・Texas Instruments( $TXN /米国) ・クアルコム( $QCOM /米国) ・テスラ( $TSLA /米国) 【モーター・バッテリー関連】 ・安川電機(6506/日本) ・ファナック(6954/日本) 【アクチュエーター関連】…

4ki4's tweet image. フィジカルAIサプライチェーン

【半導体チップ関連】
・NVIDIA( $NVDA /米国)
・Texas Instruments( $TXN /米国)
・クアルコム( $QCOM /米国)
・テスラ( $TSLA /米国)

【モーター・バッテリー関連】
・安川電機(6506/日本)
・ファナック(6954/日本)

【アクチュエーター関連】…


変化 hEnka أعاد

You have to watch this! For years now, I've been looking for signs of nontrivial zero-shot transfer across seen embodiments. When I saw the Alohas unhang tools from a wall used only on our Frankas I knew we had it! Gemini Robotics 1.5 is the first VLA to achieve such transfer!!


Depth anything 3も出たのか フィーバーだな

Interesting ICLR submissions 🤩 Depth Anything 3 - My TLDR: Init multi view transformer of VGGT with later layer DINO weights and use teacher model trained on synthetic data only for pseudo labelling real world datasets openreview.net/forum?id=yirun… Trace Anything - My TLDR: VGGT…

Nik__V__'s tweet image. Interesting ICLR submissions 🤩

Depth Anything 3 - My TLDR: Init multi view transformer of VGGT with later layer DINO weights and use teacher model trained on synthetic data only for pseudo labelling real world datasets

openreview.net/forum?id=yirun…

Trace Anything - My TLDR: VGGT…
Nik__V__'s tweet image. Interesting ICLR submissions 🤩

Depth Anything 3 - My TLDR: Init multi view transformer of VGGT with later layer DINO weights and use teacher model trained on synthetic data only for pseudo labelling real world datasets

openreview.net/forum?id=yirun…

Trace Anything - My TLDR: VGGT…


変化 hEnka أعاد

NN-SVG: Create neural network architecture drawings parametrically! Export them to SVG files and use them in your work!


変化 hEnka أعاد

This is what fundamentally makes i2RT different - vertical integration from open-source code down to the motor/gearbox/ controller manufacturing. There are no shortcuts to system-level high performance.

i2rt_robotics's tweet image. This is what fundamentally makes i2RT different - vertical integration from open-source code down to the motor/gearbox/ controller manufacturing. 

There are no shortcuts to system-level high performance.

sam2使ってたけど、sam3出たのか。 segmentationしたいものだけ述べるだけで、それを自動でsegmentationするらしい

Segment Anything 3 just silently dropped on ICLR 🤯 The first SAM let you click on an object to segment it. SAM 2 added video and memory. Now SAM 3 says: just describe what you want — “yellow school bus”, “striped cat”, “red apple” — and it will find and segment every instance…

JundeMorsenWu's tweet image. Segment Anything 3 just silently dropped on ICLR 🤯

The first SAM let you click on an object to segment it.
SAM 2 added video and memory.
Now SAM 3 says: just describe what you want — “yellow school bus”, “striped cat”, “red apple” — and it will find and segment every instance…
JundeMorsenWu's tweet image. Segment Anything 3 just silently dropped on ICLR 🤯

The first SAM let you click on an object to segment it.
SAM 2 added video and memory.
Now SAM 3 says: just describe what you want — “yellow school bus”, “striped cat”, “red apple” — and it will find and segment every instance…
JundeMorsenWu's tweet image. Segment Anything 3 just silently dropped on ICLR 🤯

The first SAM let you click on an object to segment it.
SAM 2 added video and memory.
Now SAM 3 says: just describe what you want — “yellow school bus”, “striped cat”, “red apple” — and it will find and segment every instance…
JundeMorsenWu's tweet image. Segment Anything 3 just silently dropped on ICLR 🤯

The first SAM let you click on an object to segment it.
SAM 2 added video and memory.
Now SAM 3 says: just describe what you want — “yellow school bus”, “striped cat”, “red apple” — and it will find and segment every instance…


人間の長めのタスクのデータ集めたとのこと

Data is the core bottleneck for robotics, here is the solution: Introducing MicroAGI00: We open sourced 1M+ frames of egocentric human long horizon mobile manipulation data. Scaling to 300M by Dec '25 and 100B frames Q4 2026 dm if you want your robot to wipe your office 🧵



変化 hEnka أعاد

海外留学中の人で、大量のリーディング課題をGPTやAIアプリに要約させている人へ。それ麻薬です。リーディング力が伸びず、語彙力も増えません。5年前はそんなものはなく、留学生は自力で読むしかなかった、だから伸びた。


変化 hEnka أعاد

FigureがTIME誌に。 AIロボット・ヒューマノイドロボットが世界の技術革新の最新鋭になってる。2035年は、もっとすごいことになってます。未来に行ってきました MWも負けないように頑張ります 準人型(セミヒューマノイド)×空間融合型のアプローチで世界で一番革新的な家を作ります💪

shuzonarita's tweet image. FigureがTIME誌に。

AIロボット・ヒューマノイドロボットが世界の技術革新の最新鋭になってる。2035年は、もっとすごいことになってます。未来に行ってきました

MWも負けないように頑張ります

準人型(セミヒューマノイド)×空間融合型のアプローチで世界で一番革新的な家を作ります💪
shuzonarita's tweet image. FigureがTIME誌に。

AIロボット・ヒューマノイドロボットが世界の技術革新の最新鋭になってる。2035年は、もっとすごいことになってます。未来に行ってきました

MWも負けないように頑張ります

準人型(セミヒューマノイド)×空間融合型のアプローチで世界で一番革新的な家を作ります💪

変化 hEnka أعاد

Simulinkで EV3 Lモータ、IMUセンサと車輪型倒立振子の動作確認 定員分の10台を同時に動かしてみました わりと圧倒されるw

私の担当する 「モータとセンサをMATLAB/Simulinkで操る!」 では Arduino + MATLAB/Simulink でこんな感じに実機を動かすノウハウを伝授!



Loading...

Something went wrong.


Something went wrong.