aislab_webstaff のすべての投稿

RSJ2024に参加しました

2024年9月3日~9月6日に開催された,第42回日本ロボット学会学術講演会(@大阪工業大学梅田キャンパス)にて本研究室から10件の研究について発表しました.
本研究室の発表にたくさんお集まりいただきありがとうございました!

新3回生歓迎会を行いました

2024年度後期から本研究室に迎え入れる新3回生11名の歓迎会を実施しました.
当日は9名の新3回生とおよそ30名の現メンバー+教員でピザやオードブルを食べたり,ゲームをして遊んだりして,大いに盛り上がりました.
3回生の皆さん,これからの研究室生活楽しんでいきましょう!

SI2024優秀講演賞,2023年度情報理工学部優秀研究賞,研究奨励賞受賞

M2阪上竜雅くん,藤井康之特任助教が第24回計測自動制御学会システムインテグレーション部門講演会にて優秀講演賞を受賞しました.
https://sice-si.org/si2023/excellent_speaker.php

また,M2Phuongさんが情報理工学研究科優秀研究賞,D2Thuanくん,D1Nguyenくん,M2尾崎玄拓くんが情報理工学研究科研究奨励賞を受賞しました.
https://www.ritsumei.ac.jp/gsise/news/detail/?id=42
みなさんおめでとうございます!!!!

SII2024に参加,ThuanくんがSIYA-SII2024を受賞!

2024年1月8日~11日にHa Long(ベトナム)で開催されたSII2024(The 2024 IEEE/SICE International Symposium on System Integration)で本研究室から4件の研究発表しました.
本会議において,博士後期課程2年生のBUI Bach ThuanくんはSIYA-SII2024を受賞しました!

研究発表だけでなく,ベトナムでの貴重な体験を楽しみました.

SI2023で研究発表しました

2023年12月14日~12月16日に開催されたSI2023(第24回計測自動制御学会システムインテグレーション部門講演会)にて,李研究室から9件の講演をしました.
本研究室の講演にたくさんお集まりいただきありがとうございました.

室内用3次元自己位置推定論文が掲載されました

Thuan Bui Bachさんの論文がISPRS Journal of Photogrammetry and Remote Sensingに掲載されました。ISPRS Journal of Photogrammetry and Remote SensingはImpact Factor 8.979(2022年現在)と、とても影響力のあるトップジャーナルです。論文は、2Dカメラデータを用いた室内用3次元自己位置推定に関する内容で、提案手法が既存の手法より高い精度と性能であることを比較実験で証明しています。ソースコードも公開されているのでご興味のある方は下記の情報もご覧ください。

FeatLoc: Absolute pose regressor for indoor 2D sparse features with simplistic view synthesizing
Thuan Bui Bach, Tuan Tran Dinh, Joo-Ho Lee
ISPRS Journal of Photogrammetry and Remote Sensing, Volume 189, 2022, Pages 50-62, ISSN 0924-2716,
https://doi.org/10.1016/j.isprsjprs.2022.04.021.

Abstract: Precise localization using visual sensors is a fundamental requirement in many applications, including robotics, augmented reality, and autonomous systems. Traditionally, the localization problem has been tackled by leveraging 3D-geometry registering approaches. Recently, end-to-end regressor strategies using deep convolutional neural networks have achieved impressive performance, but they do not achieve the same performance as 3D structure-based methods. To some extent, this problem has been tackled by leveraging the beneficial properties of sequential images or geometric constraints. However, these approaches can only achieve a slight improvement. In this work, we address this problem for indoor scenarios, and we argue that regressing the camera pose using sparse feature descriptors could significantly improve the pose regressor performance compared with deep single-feature-vector representation. We propose a novel approach that can directly consume sparse feature descriptors to regress the camera pose effectively. More importantly, we propose a simplistic data augmentation procedure to exploit the sparse descriptors of unseen poses, leading to a remarkable enhancement in the generalization performance. Lastly, we present an extensive evaluation of our method on publicly available indoor datasets. Our FeatLoc achieves 22% and 40% improvements in translation errors on 7-Scenes and 12-Scenes relatively, compared with recent state-of-the-art absolute pose regression-based approaches. Our codes are released at https://github.com/ais-lab/FeatLoc.
Keywords: Visual localization; Sparse features; Absolute pose regression