slam
「slam」とは、扉や窓をバタンと閉める・投げつける・叩きつけるということを意味する英語表現である。
「slam」とは・「slam」の意味
「slam」は、窓や扉などをバタンと閉める、という意味の動詞である。物を投げつける、叩きつける、机の上などにドシンと置く、といった意味でも使われる。そのほか、車などが突っ込む、衝突する、という意味もある。また、「slam」は詩や歌などをリズム良く朗誦する、演奏するという意味でも用いられる。評論などにおいては、批判的な記事や論評などを強烈に非難する、厳しく批評する、という意味で用いることがある。
「slam」の発音・読み方
「slam」の発音記号は「slǽm」である。カタカナ読みだと「スラム」になる。「slam」の語源・由来
「slam」の語源は諸説あるものの、古代ノルド語で武器を振る、手の届かないところに物を打つ、という意味の「slæma」「slœma」に何らかの関連があると考えられている。「slam」の活用変化一覧
「slam」の活用変化一覧は次の通りである。・現在形「slam(主語がhe/she/itの場合はslams)」
・現在分詞「slamming」
・現在完了形「have slammed(主語がhe/she/itの場合はhas slammed)」
・過去形「slammed」
・過去完了形「had slammed」
・未来形「will slam」
「slam」の類語
「slam」の類語としては、ガチャッと音を立てる、強く打つ、という意味の「bang」や、衝突することを意味する「crash」が挙げられる。また、文脈によっては、朗読する、暗唱する、という意味の「recite」や、批評する、批判する、という意味の「criticize」が類義語になることもある。「slam」の対義語
「slam」の対義語としては、ドアなどを開けることを意味する「open」や、柔らかくする、和らげる、という意味の「soften」がある。また、避難する、という意味においての対義語としては、賞賛することを意味する「praise」や「compliment」が挙げられる。「slam」を含む英熟語・英語表現
「slam」を含む英熟語・英語表現には、次のようなものがある。「slam dunk」とは
「slam dunk」は、バスケットボールの競技において、ボールをリングに叩きつけるようにダンクすることを意味する。また、このことから転じて、何かを容易に達成することを意味することもある。
「slam the brakes on」とは
「slam the brakes on」は、何かを急停止させることを意味する。主に自動車などの乗り物に対して使用される。「slum on the brakes」と表現する場合もある。
「slam into」とは
「slam into」は、何かに強くぶつかることを意味する熟語である。自動車事故などの交通事故に際して使用される。
「slam the phone down」とは
「slam the phone down」は、電話を激しく切ることを表す。通常は電話を切る側が怒っているときに使用される。
「slam」に関連する用語の解説
「slam」に関連する用語としては、次のようなものが挙げられる。「SLAM技術」とは
「SLAM技術」は、ロボットやドローンなどの自律システムによって使用される技術のひとつで、「Simultaneous Localization and Mapping」の略称である。ロボットが正確に目的地に到達するための自己位置確定などに使用される。
「SLAMの原理」とは
「SLAMの原理」は、ロボット工学などの分野で使用されるSLAM技術の基本原理を指す。たとえば、カメラを用いたVisual SLAMの場合、システムはカメラから得られた映像によって特異点を抽出する。カメラが移動すると特異点も移動するため、システムはその変化の様子から三次元の環境地図を作成する、というのが基本原理である。
「SLAM DUNK(漫画)」とは
「SLAM DUNK(漫画)」は、井上雄彦によって描かれた日本の漫画作品である。1990年から1996年まで週刊少年ジャンプに連載され、テレビアニメ化もされた。日本だけでなく海外でも人気の高い作品である。2022年には作者本人が監督した映画が公開された。
「slam」の使い方・例文
「slam」を用いた例文としては、次のようなものがある。「I slam the door when I'm angry.」は、日本語では「私は怒ったときにドアをバタンと閉める」と訳すことができる。
「She slammed her books on the desk in frustration.」この文章は、日本語では「彼女はイライラして本を机にドンと置いた」である。
「The critic slammed the author's latest book in a scathing review.」は、日本語では「批評家は、鋭い批評で作家の最新作を激しく非難した」になる。
スラム【SLAM】
スラム
Slam
SLAM
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/03/19 03:22 UTC 版)
ロボット工学におけるSLAM(スラム、英: Simultaneous Localization And Mapping)とは、自律移動するロボットや車両等が、地図のない未知の環境において、自己位置の推定(Localization)と環境地図の作成(Mapping)を同時(Simultaneous)に行う技術である。
地図の用意・提供が難しい状況におけるロボットの自律制御に応用されることが多く、例として配膳ロボット[1]やロボット掃除機[2][3]への実装が挙げられる。
概要
SLAMは、事前に地図などの情報が与えられていない環境で、ロボット等が自己位置と周囲の環境を認識するための技術である。LiDARセンサやカメラなどのセンサ類から得られたデータをもとに、自身がどこにいるのかを把握する自己位置推定(Localization)と、推定された自己位置をもとに周囲の状況の記録・更新する環境地図作成(Mapping)という2つのタスクを同時に遂次実行する。カーナビのように既存の地図上でのGPSを用いた自己位置推定とは異なり、地図の存在しない屋内などの環境でも自己位置推定が行える。
自己位置推定では、センサデータと環境地図上のランドマークをもとに、周囲の障害物の位置とロボットの移動量、ロボットの位置が推定される。こうして推定されたデータを元に、環境地図が更新される[4]。なお、環境地図をもとに、次のロボットがどこに進むべきかを判断する経路計画アルゴリズムについては、SLAMのアルゴリズムの中には通常含まないため注意が必要である[注釈 1]。
周囲の環境を測位する上で用いられるセンサには、主にLiDARやカメラ、深度カメラ(TOFカメラ)やマイクロフォンアレイなどがある。
一般的にSLAM機器にはIMUやGNSS、車両状の移動体であればロータリーエンコーダを利用したホイールオドメトリなどのSLAM以外の自己位置特定の補助システムが搭載されていて、自己位置特定精度の向上に用いられている。
SLAMの身近な利用例として、電機系各社が販売するロボット掃除機が挙げられる。清掃の対象の居室の形状、及びその室内に対する自機位置の検出をすることにより、移動経路及び清掃順路の最適化と、それによる効率化、節電、清掃力の向上、可能清掃面積の拡大等を図ることが出来る。更にパナソニック製ロボット掃除機「RULO」(MC-RS800)等では、スマホアプリに二次元地図を表示することにより、室内の清掃状況や汚染状況の情報を利用者に提供することも成されている[7]。
この他にも近年では、レストランの配膳ロボット[1]や倉庫内などの屋内地図(HD Map)の作成[8]、宅配ドローン制御用の三次元地図を効率的に作成する手法としても利用される。
種類
センサの種類やアルゴリズムの違いによって、さまざまな種類のSLAMがある。本項ではセンサの種類による分類とアルゴリズムの種類による分類を示す。
センサの種類による分類
用いられるセンサには、主にLiDARセンサや光学カメラ、深度カメラなどがある。また、これらのセンサデータの欠点の補完などを行う目的で、一部GPSやIMUが用いられるケースもある。センサデータの特徴に応じて処理が異なるため、それにあったSLAMが提案されている。
LiDAR SLAM
LiDARから得られた3次元の点群データから、自己位置推定と環境地図作成を行うSLAMである。LiDARで得られた時系列の点群データの各点をマッチングし座標系に統一させるには、点群レジストレーション[en:Point-set registration][9][10]を用いる。カメラのみを用いたSLAMと比較すると精度が高く、広視野で遠距離まで観測が行える。一方でLidarが高価であることや、障害物の少ない環境では点群データの取得が難しいといった課題もある[11]。
Visual SLAM(VSLAM、vSLAM)[12]
光学カメラから得られた画像を観測データとして自己位置推定と環境地図作成を行うSLAMをVisual SLAMと総称する。用いられるカメラの種類には、単眼カメラ、複眼カメラ、全天球カメラや広角カメラ、RGB-Dカメラなどがある。LiDAR SLAMとは異なり、作成される地図に視覚的な情報が付与される。このため三次元地図の作成に応用される。
カメラから得られた画像をもとに直接マッチングを行う直接法(LSD-SLAM[13]など)と、画像から基準となるような特徴点を抽出し、特徴点のマッチングをもとに追跡を行う特徴点ベースの手法(ORB-SLAM[14]など)の主に2種類の方法でカメラの位置と向きを推定する。
また、Visual SLAMは自己位置推定と環境地図作成の手法を2つ独立して研究されることがあり、それぞれVisual OdometryとStructure-from-Motionと呼ばれている。
Visual Odometry(VO、en:Visual odometry)[15]
カメラからの出力画像をもとに、ロボットの位置と向きを特定する手法である。NASAの火星探査機[16]やドローンの制御[17]などに応用されている。近年では、慣性計測装置(IMU)を組み合わせたVIO(Visual-Inertial Odometry)も提案されている[18]。
Structure from Motion(SfM、en:Structure from motion)[19]
カメラからの出力画像群から、撮影対象の3次元形状を推定するための手法である。すでに撮影された動画像をもとに後から3次元形状を推定するオフラインの手法[20]と、逐次推定を行う手法がある[21][22]。Google マップのストリートビューなどに応用されている[23]。
Fusion SLAM
LiDAR、カメラ、IMU、GPSなど複数の異なるセンサを組み合わせることで、極めて頑健で確度が高いSLAMの手法である。複数のセンサが必要になることから、他のSLAMと比べてコストは高い。高い認識精度が求められるような自動運転車のシステムに応用される[24][25]。
アルゴリズムの種類による分類
自己位置推定と環境地図作成をする手法として、カルマンフィルタやパーティクルフィルタなどを用いる方法などが提案されてきた。近年は機械学習を用いる手法も提案されている。
フィルタベース
拡張カルマンフィルタ(英:Extended Kalman Filter、EKF)やパーティクルフィルタなどを用いた手法である。初期のSLAMに見られることが多いものであり、代表的なものでEKF-SLAM[26][27]、FastSLAM[28]などがある。
グラフベース
ロボットの各時刻の位置と向きをノードとし、観測や移動による制約をエッジとしたグラフ構造を定義して更新を行う手法である[29]。ポーズ最適化という最適化手法を用いることで、精度の高いマップを推定する。ORB-SLAM[14]などで応用されている。
深層学習ベース
ニューラルネットワークをベースとしたSLAMである。特徴点抽出など一部の処理をCNNで行う手法[30][31]や、end-to-endでほとんどすべての処理を独自のモデルで行うもの[32][33]など、さまざまなSLAMが提案されている。
脚注
注釈
出典
- ^ a b Pudu Robotics (2022年2月8日). “BellaBot Product Introduction”. Pudu Robotics. 2024年3月20日閲覧。
- ^ “レーザーSLAM搭載 ロボット掃除機RULO(ルーロ)を発売 | 個人向け商品 | 製品・サービス | プレスリリース”. Panasonic Newsroom Japan : パナソニック ニュースルーム ジャパン. 2026年3月12日閲覧。
- ^ 齊藤弘幸 ほか「SLAM技術を搭載したロボット掃除機」『パナソニック技報』64(2),パナソニック. 国立国会図書館デジタルコレクション https://dl.ndl.go.jp/pid/12318620 (参照 2026-03-08)
- ^ Alsadik, Bashar, and Samer Karam. "The simultaneous localization and mapping (SLAM): An overview." Journal of Applied Science and Technology Trends 2.2 (2021): 147-158.
- ^ Wang X, Ma X, Li Z. Research on SLAM and Path Planning Method of Inspection Robot in Complex Scenarios. Electronics. 2023; 12(10):2178. https://doi.org/10.3390/electronics12102178
- ^ Man, Chenleqian. "Path Planning Based on SLAM Technology and Deep Learning." Proceedings of the 2025 3rd International Conference on Image, Algorithms, and Artificial Intelligence (ICIAAI 2025). Springer Nature, 2025.
- ^ “ロボット掃除機RULO(ルーロ)「MC-RS800」を発売 | 個人向け商品 | 製品・サービス | プレスリリース”. Panasonic Newsroom Japan : パナソニック ニュースルーム ジャパン. 2026年3月12日閲覧。
- ^ “Media | TIER IV, Inc.”. tier4.jp. 2026年3月13日閲覧。
- ^ Zhang, Ji, and Sanjiv Singh (2014). “LOAM: Lidar Odometry and Mapping in Real-time”. Robotics: Science and systems. Vol. 2 (No. 9).
- ^ Rusinkiewicz, Szymon, and Marc Levoy (2001). “Efficient variants of the ICP algorithm”. Proceedings third international conference on 3-D digital imaging and modeling (IEEE): pp. 142-152.
- ^ “LiDAR (Light Detection and Ranging) とは?”. jp.mathworks.com. 2026年3月8日閲覧。
- ^ Yousif, Khalid, Alireza Bab-Hadiashar, and Reza Hoseinnezhad (2015). “An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics”. Intelligent Industrial Systems 1: pp. 289-311. doi:10.1007/s40903-015-0032-7.
- ^ Engel, Jakob, Thomas Schöps, and Daniel Cremers (2014). “LSD-SLAM: Large-scale direct monocular SLAM”. Computer Vision – ECCV 2014 (Springer) vol 8690. doi:10.1007/978-3-319-10605-2_54.
- ^ a b Mur-Artal, Raul, Jose Maria Martinez Montiel, and Juan D. Tardos (2015). “ORB-SLAM: A versatile and accurate monocular SLAM system”. IEEE transactions on robotics (IEEE) 31 (5): pp.1147-1163. arXiv:1502.00956v2. doi:10.1109/TRO.2015.2463671.
- ^ D. Scaramuzza and F. Fraundorfer (2011). “Visual Odometry [Tutorial”]. IEEE Robotics & Automation Magazine vol. 18 (no. 4): pp. 80-92.
- ^ Maimone, M., Cheng, Y. and Matthies, L. (2007). “Two years of Visual Odometry on the Mars Exploration Rovers”. Journal of Field Robotics 24 (3): 169-186. doi:10.1002/rob.20184.
- ^ V. More, H. Kumar, S. Kaingade, P. Gaidhani and N. Gupta (2015). “Visual odometry using optic flow for Unmanned Aerial Vehicles”. 2015 International Conference on Cognitive Computing and Information Processing(CCIP) (IEEE): pp. 1-6. doi:10.1109/CCIP.2015.7100731.
- ^ D. Schubert, T. Goll, N. Demmel, V. Usenko, J. Stückler and D. Cremers (2018). “The TUM VI Benchmark for Evaluating Visual-Inertial Odometry”. 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE): pp. 1680-1687. doi:10.1109/IROS.2018.8593419.
- ^ S. Ullman (1979). “The interpretation of structure from motion”. Proceedings of the Royal Society of London 203 (1153): 405–426. Bibcode: 1979RSPSB.203..405U. doi:10.1098/rspb.1979.0006. hdl:1721.1/6298. PMID 34162.
- ^ Pan, L., Baráth, D., Pollefeys, M., Schönberger, J.L.. “Global Structure-from-Motion Revisited”. ECCV 2024 (Springer, Cham). doi:10.1007/978-3-031-73661-2_4.
- ^ Agarwal, S., Snavely, N., Simon, I., Seitz, S., & Szeliski, R (2011). “Building Rome in a Day”. Communications of the ACM 54 (10): 105-112. doi:10.1145/2001269.2001293.
- ^ Schonberger, Johannes L., and Jan-Michael Frahm (2016). “Structure-from-motion revisited”. Proceedings of the IEEE conference on computer vision and pattern recognition (IEEE). doi:10.1109/CVPR.2016.445.
- ^ Klingner, Bryan and Martin, David and Roseborough, James (2013). “Street view motion-from-structure-from-motion”. Proceedings of the IEEE International Conference on Computer Vision 2013 (IEEE). doi:10.1109/ICCV.2013.122.
- ^ Xu, Xiaobin, Lei Zhang, Jian Yang, Chenfei Cao, Wen Wang, Yingying Ran, Zhiying Tan, and Minzhou Luo (2022). “A Review of Multi-Sensor Fusion SLAM Systems Based on 3D LIDAR”. Remote Sensing 14 (12). doi:10.3390/rs14122835.
- ^ Keli Huang, Botian Shi, Xiang Li, Xin Li, Siyuan Huang, Yikang Li. “Multi-modal Sensor Fusion for Auto Driving Perception: A Survey”. arXiv preprint. arXiv:2202.02703v3. doi:10.48550/arXiv.2202.02703.
- ^ Smith, R., Self, M., Cheeseman, P. (1990). “Estimating uncertain spatial relationships in robotics”. Autonomous robot vehicles (Springer New York). arXiv:1304.3111. doi:10.1007/978-1-4613-8997-2_14.
- ^ T. Bailey, J. Nieto, J. Guivant, M. Stevens and E. Nebot (2006). “Consistency of the EKF-SLAM Algorithm”. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems (IEEE). doi:10.1109/IROS.2006.281644..
- ^ Montemerlo, Michael, et al. (2002). “FastSLAM: A factored solution to the simultaneous localization and mapping problem”. Aaai/iaai 593598 (2): 593-598.
- ^ G. Grisetti, R. Kümmerle, C. Stachniss and W. Burgard (2010). “A Tutorial on Graph-Based SLAM”. EEE Intelligent Transportation Systems Magazine (IEEE) vol. 2 (no. 4): pp. 31-43. doi:10.1109/MITS.2010.939925.
- ^ Tateno, Keisuke and Tombari, Federico and Laina, Iro and Navab, Nassir (2017). “CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR).
- ^ DeTone, Daniel and Malisiewicz, Tomasz and Rabinovich, Andrew (2018). “SuperPoint: Self-Supervised Interest Point Detection and Description”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops: pp. 224-236.
- ^ Teed, Zachary, and Jia Deng (2021). “DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras”. Advances in neural information processing systems 34: 16558-16569.
- ^ Wang, S., Clark, R., Wen, H., & Trigoni (2017). “DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks”. 2017 IEEE International Conference on Robotics and Automation (ICRA) (IEEE): pp. 2043-2050. doi:10.1109/ICRA.2017.7989236.
参考文献
- いまさら聞けないSLAMの技術や活用についての解説株式会社サイバネテック
- 谷口忠大「移動と場所の学習」『僕とアリスの夏物語:人工知能のその先へ』岩波書店〈岩波科学ライブラリー〉、2022年1月13日。 ISBN 9784000297097。
関連項目
- 計算写真学
- Visual odometry
- カルマンフィルター
- Inverse depth parametrization
- The Mobile Robot Programming Toolkit (MRPT) project:オープンソースでクロスプラットフォームの粒子フィルタとカルマンフィルター機能を有するSLAMライブラリ。
- Monte Carlo localization
- Multi Autonomous Ground-robotic International Challenge
- ネイトロボティクス
- 粒子フィルタ
- Project Tango
- Robotic mapping
- Stanley, DARPA Grand Challenge (2005)で勝利したスタンフォード大学製のSLAM使用の車両。
- Stereophotogrammetry、ステレオグラム
- Structure from motion.
- 自動運転車
- 自律走行ロボット
- 先進運転支援システム
- GNSS
- LiDAR
- 三次元地図
- 高精度地図
スラム (曖昧さ回避)
(SLAM から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/10/31 20:35 UTC 版)
スラム
slam
スラム (slam)、スラミング (slamming)
- 英語で叩きつける、(ドアなどを)ぴしゃりと閉める、などの意。
- スポーツ
格闘技でのスラムは類似の言葉としてバスターが使用されていたが、近年はUFCを中心としたアメリカでスラム、スラミングに統一されており、日本もそれに準じてスラムに統一されつつある。日本でバスターが使用されるのは中井祐樹がプロレス技のブレーンバスターから着想し多用していたため[1]。
- 船舶工学
- 船体#スラミングへの対策を参照
- その他
- スラム奏法 - ギターの奏法の1種で、演奏しつつギターのボディを叩いてパーカッションのようにリズムを刻む奏法。
- ロックバンドのコンサートなどにおいて発生する観客同士による押し合いのこと。モッシュを参照。
- ポエトリー・スラム - 詩の朗読競技会 (Poetry slam)
- ダン・リード・ネットワークのアルバム。
- 車高を下げた自動車。しばしば「slammed」(過去形)になった状態で記される。
SLAM
- ロボット工学
- 軍事
- Standoff Land Attack Missileの略称。アメリカ軍の空対地ミサイル。SLAM (ミサイル)を参照。
- Supersonic Low Altitude Missileの略称。アメリカ軍の超音速核ミサイル。プルート計画を参照。
slum
- スラム - 都市部における貧困層の居住地域
sram
- SRAM (自転車部品メーカー) - アメリカの自転車部品メーカー。
脚注
- ^ KinyaBJJ (2019年5月11日). “なんでスラムのことがバスターって広まったかというと日本の柔術黎明期にパラエストラ主催大会で大会前のルール説明で反則行為である叩きつける行為をバスターって言ってたことから。命名したのは中井先生で、このバスターはプロレス技のブレーンバスターから引用したとのこと。これが起源です。” (日本語). @KinyaBJJ. 2019年5月13日閲覧。
関連項目
SLAM(Selectable Lightweight Attack Munitions)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/17 23:54 UTC 版)
「ハーフライフ2」の記事における「SLAM(Selectable Lightweight Attack Munitions)」の解説
その場に放り投げて遠隔操作で起爆したり、壁や床などに貼り付けてトリップマインとして使用できる爆弾。シングルプレイモードでは入手できず、『HL2:DM』のみで使用可能。
※この「SLAM(Selectable Lightweight Attack Munitions)」の解説は、「ハーフライフ2」の解説の一部です。
「SLAM(Selectable Lightweight Attack Munitions)」を含む「ハーフライフ2」の記事については、「ハーフライフ2」の概要を参照ください。
固有名詞の分類
- SLAMのページへのリンク