2024年9月3日~9月6日に開催された,第42回日本ロボット学会学術講演会(@大阪工業大学梅田キャンパス)にて本研究室から10件の研究について発表しました.
本研究室の発表にたくさんお集まりいただきありがとうございました!
2024年9月3日~9月6日に開催された,第42回日本ロボット学会学術講演会(@大阪工業大学梅田キャンパス)にて本研究室から10件の研究について発表しました.
本研究室の発表にたくさんお集まりいただきありがとうございました!
2024年度後期から本研究室に迎え入れる新3回生11名の歓迎会を実施しました.
当日は9名の新3回生とおよそ30名の現メンバー+教員でピザやオードブルを食べたり,ゲームをして遊んだりして,大いに盛り上がりました.
3回生の皆さん,これからの研究室生活楽しんでいきましょう!
2024年5月30日~5月30日に開催されたROBOMECH2024(ロボティクス・メカトロニクス 講演会 2024 in Utsunomiya)にて,李研究室から7件の講演をしました.
本研究室の講演にたくさんお集まりいただきありがとうございました.
M2阪上竜雅くん,藤井康之特任助教が第24回計測自動制御学会システムインテグレーション部門講演会にて優秀講演賞を受賞しました.
https://sice-si.org/si2023/excellent_speaker.php
また,M2Phuongさんが情報理工学研究科優秀研究賞,D2Thuanくん,D1Nguyenくん,M2尾崎玄拓くんが情報理工学研究科研究奨励賞を受賞しました.
https://www.ritsumei.ac.jp/gsise/news/detail/?id=42
みなさんおめでとうございます!!!!
2024年2月1日に4回生8人が卒論発表会で発表し,2024年2月3日に修士2回生7人が修論発表会で発表しました.
皆さん,これまでの取り組みをまとめて満足のいく発表ができたでしょうか??
皆さんの今後の発展に期待です!
お疲れさまでした.
2024年1月8日~11日にHa Long(ベトナム)で開催されたSII2024(The 2024 IEEE/SICE International Symposium on System Integration)で本研究室から4件の研究発表しました.
本会議において,博士後期課程2年生のBUI Bach ThuanくんはSIYA-SII2024を受賞しました!
研究発表だけでなく,ベトナムでの貴重な体験を楽しみました.
2023年12月14日~12月16日に開催されたSI2023(第24回計測自動制御学会システムインテグレーション部門講演会)にて,李研究室から9件の講演をしました.
本研究室の講演にたくさんお集まりいただきありがとうございました.
博士後期課程学生の藤井康之くんが第39回日本ロボット学会学術講演会での講演内容が評価され「若手講演賞」を受賞しました。
おめでとうございます!
李先生がCDO(Chief Data Officer)Magazineが選定した世界のLeading Academic Data Leadersに選ばれました。詳細な内容は以下のリンクからご覧ください。
Thuan Bui Bachさんの論文がISPRS Journal of Photogrammetry and Remote Sensingに掲載されました。ISPRS Journal of Photogrammetry and Remote SensingはImpact Factor 8.979(2022年現在)と、とても影響力のあるトップジャーナルです。論文は、2Dカメラデータを用いた室内用3次元自己位置推定に関する内容で、提案手法が既存の手法より高い精度と性能であることを比較実験で証明しています。ソースコードも公開されているのでご興味のある方は下記の情報もご覧ください。
FeatLoc: Absolute pose regressor for indoor 2D sparse features with simplistic view synthesizing
Thuan Bui Bach, Tuan Tran Dinh, Joo-Ho Lee
ISPRS Journal of Photogrammetry and Remote Sensing, Volume 189, 2022, Pages 50-62, ISSN 0924-2716,
https://doi.org/10.1016/j.isprsjprs.2022.04.021.
Abstract: Precise localization using visual sensors is a fundamental requirement in many applications, including robotics, augmented reality, and autonomous systems. Traditionally, the localization problem has been tackled by leveraging 3D-geometry registering approaches. Recently, end-to-end regressor strategies using deep convolutional neural networks have achieved impressive performance, but they do not achieve the same performance as 3D structure-based methods. To some extent, this problem has been tackled by leveraging the beneficial properties of sequential images or geometric constraints. However, these approaches can only achieve a slight improvement. In this work, we address this problem for indoor scenarios, and we argue that regressing the camera pose using sparse feature descriptors could significantly improve the pose regressor performance compared with deep single-feature-vector representation. We propose a novel approach that can directly consume sparse feature descriptors to regress the camera pose effectively. More importantly, we propose a simplistic data augmentation procedure to exploit the sparse descriptors of unseen poses, leading to a remarkable enhancement in the generalization performance. Lastly, we present an extensive evaluation of our method on publicly available indoor datasets. Our FeatLoc achieves 22% and 40% improvements in translation errors on 7-Scenes and 12-Scenes relatively, compared with recent state-of-the-art absolute pose regression-based approaches. Our codes are released at https://github.com/ais-lab/FeatLoc.
Keywords: Visual localization; Sparse features; Absolute pose regression