Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
SLAMとは何? わかりやすく解説 Weblio辞書
[go: Go Back, main page]

SLAMとは? わかりやすく解説

slam

別表記:スラム

「slam」とは、扉や窓をバタン閉める・投げつける叩きつけるということ意味する英語表現である。

「slam」とは・「slam」の意味

「slam」は、窓や扉などをバタン閉める、という意味の動詞である。物を投げつける叩きつけるの上などにドシンと置く、といった意味でも使われるそのほか、車などが突っ込む、衝突する、という意味もある。

また、「slam」は詩や歌などリズム良く朗誦する、演奏するという意味でも用いられる評論などにおいては批判的な記事論評など強烈に非難する厳しく批評する、という意味で用いことがある

「slam」の発音・読み方

「slam」の発音記号は「slǽm」である。カタカナ読みだと「スラム」になる。

「slam」の語源・由来

「slam」の語源諸説あるものの、古代ノルド語武器を振る、手の届かないところに物を打つ、という意味の「slæma」「slœma」に何らかの関連があると考えられている。

「slam」の活用変化一覧

「slam」の活用変化一覧は次の通りである。

現在形「slam(主語がhe/she/itの場合はslams)」
現在分詞slamming
現在完了形「have slammed主語がhe/she/itの場合はhas slammed)」
過去形slammed
過去完了形「had slammed
未来形「will slam」

「slam」の類語

「slam」の類語としては、ガチャッと音を立てる強く打つ、という意味の「bang」や、衝突することを意味するcrash」が挙げられるまた、文脈によっては、朗読する暗唱する、という意味の「recite」や、批評する批判する、という意味の「criticize」が類義語になることもある。

「slam」の対義語

「slam」の対義語としては、ドアなどを開けることを意味するopen」や、柔らかくする、和らげる、という意味の「soften」がある。また、避難する、という意味においての対義語としては、賞賛することを意味するpraise」や「compliment」が挙げられる

「slam」を含む英熟語・英語表現

「slam」を含む英熟語英語表現には、次のようなものがある。

「slam dunk」とは


slam dunk」は、バスケットボール競技において、ボールリング叩きつけるようにダンクすることを意味するまた、このことから転じて、何かを容易に達成することを意味することもある。

「slam the brakes on」とは


「slam the brakes on」は、何かを急停止させることを意味する。主に自動車など乗り物に対して使用される。「slum on the brakes」と表現する場合もある。

「slam into」とは


「slam into」は、何かに強くぶつかることを意味する熟語である。自動車事故などの交通事故に際して使用される

「slam the phone down」とは


「slam the phone down」は、電話激しく切ることを表す。通常電話を切る側が怒っているときに使用される

「slam」に関連する用語の解説

「slam」に関連する用語としては、次のようなものが挙げられる

「SLAM技術」とは


「SLAM技術」は、ロボットドローンなどの自律システムによって使用される技術のひとつで、「Simultaneous Localization and Mapping」の略称である。ロボット正確に目的地到達するための自己位置確定などに使用される

「SLAMの原理」とは


「SLAMの原理」は、ロボット工学などの分野使用されるSLAM技術基本原理を指す。たとえば、カメラ用いたVisual SLAM場合システムカメラから得られ映像によって特異点抽出するカメラ移動する特異点移動するため、システムはその変化様子から三次元の環境地図作成する、というのが基本原理である。

「SLAM DUNK(漫画)」とは


SLAM DUNK漫画)」は、井上雄彦によって描かれ日本の漫画作品である。1990年から1996年まで週刊少年ジャンプ連載されテレビアニメ化もされた。日本だけでなく海外でも人気の高い作品である。2022年には作者本人監督した映画公開された。

「slam」の使い方・例文

「slam」を用いた例文としては、次のようなものがある。

I slam the door when I'm angry.」は、日本語では「私は怒ったときにドアバタン閉める」と訳すことができる。

「She slammed her books on the desk in frustration.」この文章は、日本語では「彼女はイライラして本をドン置いた」である。

The critic slammed the author's latest book in a scathing review.」は、日本語では「批評家は、鋭い批評作家最新作激しく非難した」になる。

スラム【SLAM】


スラム

分子式C14H14ClN2O3PS
その他の名称スラム、アラモス、アゾトアート、Slam、Alamos、L-1058、Azothoate、Thiophosphoric acid O,O-dimethyl O-[p-(p-chlorophenylazo)phenyl] ester
体系名:チオりん酸O,O-ジメチルO-[p-(p-クロロフェニルアゾ)フェニル]


Slam

名前 スラム

SLAM

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/03/19 03:22 UTC 版)

ロボット工学におけるSLAM(スラム、英: Simultaneous Localization And Mapping)とは、自律移動するロボット車両等が、地図のない未知の環境において、自己位置の推定(Localization)と環境地図の作成(Mapping)を同時(Simultaneous)に行う技術である。

地図の用意・提供が難しい状況におけるロボットの自律制御に応用されることが多く、例として配膳ロボット[1]ロボット掃除機[2][3]への実装が挙げられる。

概要

SLAMは、事前に地図などの情報が与えられていない環境で、ロボット等が自己位置と周囲の環境を認識するための技術である。LiDARセンサカメラなどのセンサ類から得られたデータをもとに、自身がどこにいるのかを把握する自己位置推定(Localization)と、推定された自己位置をもとに周囲の状況の記録・更新する環境地図作成(Mapping)という2つのタスクを同時に遂次実行する。カーナビのように既存の地図上でのGPSを用いた自己位置推定とは異なり、地図の存在しない屋内などの環境でも自己位置推定が行える。

自己位置推定では、センサデータと環境地図上のランドマークをもとに、周囲の障害物の位置とロボットの移動量、ロボットの位置が推定される。こうして推定されたデータを元に、環境地図が更新される[4]。なお、環境地図をもとに、次のロボットがどこに進むべきかを判断する経路計画アルゴリズムについては、SLAMのアルゴリズムの中には通常含まないため注意が必要である[注釈 1]

周囲の環境を測位する上で用いられるセンサには、主にLiDARカメラ、深度カメラ(TOFカメラ)やマイクロフォンアレイなどがある。

一般的にSLAM機器にはIMUGNSS、車両状の移動体であればロータリーエンコーダを利用したホイールオドメトリなどのSLAM以外の自己位置特定の補助システムが搭載されていて、自己位置特定精度の向上に用いられている。

SLAMの身近な利用例として、電機系各社が販売するロボット掃除機が挙げられる。清掃の対象の居室の形状、及びその室内に対する自機位置の検出をすることにより、移動経路及び清掃順路の最適化と、それによる効率化、節電、清掃力の向上、可能清掃面積の拡大等を図ることが出来る。更にパナソニック製ロボット掃除機「RULO」(MC-RS800)等では、スマホアプリに二次元地図を表示することにより、室内の清掃状況や汚染状況の情報を利用者に提供することも成されている[7]

この他にも近年では、レストランの配膳ロボット[1]や倉庫内などの屋内地図(HD Map)の作成[8]宅配ドローン制御用の三次元地図を効率的に作成する手法としても利用される。

種類

センサの種類やアルゴリズムの違いによって、さまざまな種類のSLAMがある。本項ではセンサの種類による分類とアルゴリズムの種類による分類を示す。

センサの種類による分類

用いられるセンサには、主にLiDARセンサ光学カメラ深度カメラなどがある。また、これらのセンサデータの欠点の補完などを行う目的で、一部GPSやIMUが用いられるケースもある。センサデータの特徴に応じて処理が異なるため、それにあったSLAMが提案されている。

LiDAR SLAM

LiDARから得られた3次元の点群データから、自己位置推定と環境地図作成を行うSLAMである。LiDARで得られた時系列の点群データの各点をマッチングし座標系に統一させるには、点群レジストレーション[en:Point-set registration][9][10]を用いる。カメラのみを用いたSLAMと比較すると精度が高く、広視野で遠距離まで観測が行える。一方でLidarが高価であることや、障害物の少ない環境では点群データの取得が難しいといった課題もある[11]

Visual SLAM(VSLAM、vSLAM)[12]

光学カメラから得られた画像を観測データとして自己位置推定と環境地図作成を行うSLAMをVisual SLAMと総称する。用いられるカメラの種類には、単眼カメラ、複眼カメラ、全天球カメラや広角カメラ、RGB-Dカメラなどがある。LiDAR SLAMとは異なり、作成される地図に視覚的な情報が付与される。このため三次元地図の作成に応用される。

カメラから得られた画像をもとに直接マッチングを行う直接法(LSD-SLAM[13]など)と、画像から基準となるような特徴点を抽出し、特徴点のマッチングをもとに追跡を行う特徴点ベースの手法(ORB-SLAM[14]など)の主に2種類の方法でカメラの位置と向きを推定する。

また、Visual SLAMは自己位置推定と環境地図作成の手法を2つ独立して研究されることがあり、それぞれVisual OdometryとStructure-from-Motionと呼ばれている。

Visual Odometry(VO、en:Visual odometry[15]

カメラからの出力画像をもとに、ロボットの位置と向きを特定する手法である。NASA火星探査機[16]ドローン制御[17]などに応用されている。近年では、慣性計測装置(IMU)を組み合わせたVIO(Visual-Inertial Odometry)も提案されている[18]

Structure from Motion(SfM、en:Structure from motion[19]

カメラからの出力画像群から、撮影対象の3次元形状を推定するための手法である。すでに撮影された動画像をもとに後から3次元形状を推定するオフラインの手法[20]と、逐次推定を行う手法がある[21][22]Google マップストリートビューなどに応用されている[23]

Fusion SLAM

LiDAR、カメラ、IMU、GPSなど複数の異なるセンサを組み合わせることで、極めて頑健で確度が高いSLAMの手法である。複数のセンサが必要になることから、他のSLAMと比べてコストは高い。高い認識精度が求められるような自動運転車のシステムに応用される[24][25]

アルゴリズムの種類による分類

自己位置推定と環境地図作成をする手法として、カルマンフィルタやパーティクルフィルタなどを用いる方法などが提案されてきた。近年は機械学習を用いる手法も提案されている。

フィルタベース

拡張カルマンフィルタ(英:Extended Kalman Filter、EKF)やパーティクルフィルタなどを用いた手法である。初期のSLAMに見られることが多いものであり、代表的なものでEKF-SLAM[26][27]、FastSLAM[28]などがある。

グラフベース

ロボットの各時刻の位置と向きをノードとし、観測や移動による制約をエッジとしたグラフ構造を定義して更新を行う手法である[29]。ポーズ最適化という最適化手法を用いることで、精度の高いマップを推定する。ORB-SLAM[14]などで応用されている。

深層学習ベース

ニューラルネットワークをベースとしたSLAMである。特徴点抽出など一部の処理をCNNで行う手法[30][31]や、end-to-endでほとんどすべての処理を独自のモデルで行うもの[32][33]など、さまざまなSLAMが提案されている。

脚注

注釈

  1. ^ 複数のサーベイ論文において、SLAMと経路計画(Path Planning)を明確に分けて説明している[5][6]

出典

  1. ^ a b Pudu Robotics (2022年2月8日). “BellaBot Product Introduction”. Pudu Robotics. 2024年3月20日閲覧。
  2. ^ レーザーSLAM搭載 ロボット掃除機RULO(ルーロ)を発売 | 個人向け商品 | 製品・サービス | プレスリリース”. Panasonic Newsroom Japan : パナソニック ニュースルーム ジャパン. 2026年3月12日閲覧。
  3. ^ 齊藤弘幸 ほか「SLAM技術を搭載したロボット掃除機」『パナソニック技報』64(2),パナソニック. 国立国会図書館デジタルコレクション https://dl.ndl.go.jp/pid/12318620 (参照 2026-03-08)
  4. ^ Alsadik, Bashar, and Samer Karam. "The simultaneous localization and mapping (SLAM): An overview." Journal of Applied Science and Technology Trends 2.2 (2021): 147-158.
  5. ^ Wang X, Ma X, Li Z. Research on SLAM and Path Planning Method of Inspection Robot in Complex Scenarios. Electronics. 2023; 12(10):2178. https://doi.org/10.3390/electronics12102178
  6. ^ Man, Chenleqian. "Path Planning Based on SLAM Technology and Deep Learning." Proceedings of the 2025 3rd International Conference on Image, Algorithms, and Artificial Intelligence (ICIAAI 2025). Springer Nature, 2025.
  7. ^ ロボット掃除機RULO(ルーロ)「MC-RS800」を発売 | 個人向け商品 | 製品・サービス | プレスリリース”. Panasonic Newsroom Japan : パナソニック ニュースルーム ジャパン. 2026年3月12日閲覧。
  8. ^ Media | TIER IV, Inc.”. tier4.jp. 2026年3月13日閲覧。
  9. ^ Zhang, Ji, and Sanjiv Singh (2014). “LOAM: Lidar Odometry and Mapping in Real-time”. Robotics: Science and systems. Vol. 2 (No. 9). https://cvlibs.net/projects/autonomous_vision_survey/literature/Zhang2014RSS.pdf. 
  10. ^ Rusinkiewicz, Szymon, and Marc Levoy (2001). “Efficient variants of the ICP algorithm”. Proceedings third international conference on 3-D digital imaging and modeling (IEEE): pp. 142-152. http://ki-www.cvl.iis.u-tokyo.ac.jp/class2013/2013w/paper/correspondingAndRegistration/03_Levoy.pdf. 
  11. ^ LiDAR (Light Detection and Ranging) とは?”. jp.mathworks.com. 2026年3月8日閲覧。
  12. ^ Yousif, Khalid, Alireza Bab-Hadiashar, and Reza Hoseinnezhad (2015). “An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics”. Intelligent Industrial Systems 1: pp. 289-311. doi:10.1007/s40903-015-0032-7. https://link.springer.com/article/10.1007/s40903-015-0032-7?fbclid=IwAR2j_ERnMT8ywstuWp6HXdF8qBaqF1Qt4E_0XJWI_8_ZPGQxMDRcoBt7jbw. 
  13. ^ Engel, Jakob, Thomas Schöps, and Daniel Cremers (2014). “LSD-SLAM: Large-scale direct monocular SLAM”. Computer Vision – ECCV 2014 (Springer) vol 8690. doi:10.1007/978-3-319-10605-2_54. https://link.springer.com/chapter/10.1007/978-3-319-10605-2_54. 
  14. ^ a b Mur-Artal, Raul, Jose Maria Martinez Montiel, and Juan D. Tardos (2015). “ORB-SLAM: A versatile and accurate monocular SLAM system”. IEEE transactions on robotics (IEEE) 31 (5): pp.1147-1163. arXiv:1502.00956v2. doi:10.1109/TRO.2015.2463671. https://arxiv.org/pdf/1502.00956. 
  15. ^ D. Scaramuzza and F. Fraundorfer (2011). “Visual Odometry [Tutorial”]. IEEE Robotics & Automation Magazine vol. 18 (no. 4): pp. 80-92. https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6096039. 
  16. ^ Maimone, M., Cheng, Y. and Matthies, L. (2007). “Two years of Visual Odometry on the Mars Exploration Rovers”. Journal of Field Robotics 24 (3): 169-186. doi:10.1002/rob.20184. https://onlinelibrary.wiley.com/doi/epdf/10.1002/rob.20184. 
  17. ^ V. More, H. Kumar, S. Kaingade, P. Gaidhani and N. Gupta (2015). “Visual odometry using optic flow for Unmanned Aerial Vehicles”. 2015 International Conference on Cognitive Computing and Information Processing(CCIP) (IEEE): pp. 1-6. doi:10.1109/CCIP.2015.7100731. https://ieeexplore.ieee.org/document/7100731. 
  18. ^ D. Schubert, T. Goll, N. Demmel, V. Usenko, J. Stückler and D. Cremers (2018). “The TUM VI Benchmark for Evaluating Visual-Inertial Odometry”. 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE): pp. 1680-1687. doi:10.1109/IROS.2018.8593419. https://ieeexplore.ieee.org/document/8593419. 
  19. ^ S. Ullman (1979). “The interpretation of structure from motion”. Proceedings of the Royal Society of London 203 (1153): 405–426. Bibcode1979RSPSB.203..405U. doi:10.1098/rspb.1979.0006. hdl:1721.1/6298. PMID 34162. https://dspace.mit.edu/bitstream/1721.1/6298/2/AIM-476.pdf. 
  20. ^ Pan, L., Baráth, D., Pollefeys, M., Schönberger, J.L.. “Global Structure-from-Motion Revisited”. ECCV 2024 (Springer, Cham). doi:10.1007/978-3-031-73661-2_4. https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/05646.pdf. 
  21. ^ Agarwal, S., Snavely, N., Simon, I., Seitz, S., & Szeliski, R (2011). “Building Rome in a Day”. Communications of the ACM 54 (10): 105-112. doi:10.1145/2001269.2001293. https://dl.acm.org/doi/pdf/10.1145/2001269.2001293. 
  22. ^ Schonberger, Johannes L., and Jan-Michael Frahm (2016). “Structure-from-motion revisited”. Proceedings of the IEEE conference on computer vision and pattern recognition (IEEE). doi:10.1109/CVPR.2016.445. https://demuc.de/papers/schoenberger2016sfm.pdf. 
  23. ^ Klingner, Bryan and Martin, David and Roseborough, James (2013). “Street view motion-from-structure-from-motion”. Proceedings of the IEEE International Conference on Computer Vision 2013 (IEEE). doi:10.1109/ICCV.2013.122. https://www.cv-foundation.org/openaccess/content_iccv_2013/papers/Klingner_Street_View_Motion-from-Structure-from-Motion_2013_ICCV_paper.pdf. 
  24. ^ Xu, Xiaobin, Lei Zhang, Jian Yang, Chenfei Cao, Wen Wang, Yingying Ran, Zhiying Tan, and Minzhou Luo (2022). “A Review of Multi-Sensor Fusion SLAM Systems Based on 3D LIDAR”. Remote Sensing 14 (12). doi:10.3390/rs14122835. https://www.mdpi.com/2072-4292/14/12/2835. 
  25. ^ Keli Huang, Botian Shi, Xiang Li, Xin Li, Siyuan Huang, Yikang Li. “Multi-modal Sensor Fusion for Auto Driving Perception: A Survey”. arXiv preprint. arXiv:2202.02703v3. doi:10.48550/arXiv.2202.02703. https://arxiv.org/pdf/2202.02703. 
  26. ^ Smith, R., Self, M., Cheeseman, P. (1990). “Estimating uncertain spatial relationships in robotics”. Autonomous robot vehicles (Springer New York). arXiv:1304.3111. doi:10.1007/978-1-4613-8997-2_14. https://arxiv.org/pdf/1304.3111. 
  27. ^ T. Bailey, J. Nieto, J. Guivant, M. Stevens and E. Nebot (2006). “Consistency of the EKF-SLAM Algorithm”. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems (IEEE). doi:10.1109/IROS.2006.281644.. https://d1wqtxts1xzle7.cloudfront.net/45803069/Consistency_of_the_EKF-SLAM_algorithm20160520-21492-1povexs-libre.pdf?1463747638=&response-content-disposition=inline%3B+filename%3DConsistency_of_the_EKF_SLAM_Algorithm.pdf&Expires=1773838189&Signature=DvFoors4v6uu3JuHpioGjHvZoWR50d9oy1jYKLfwzW9elzXiJO8v9vA4gD0Fv3MC13zhnjBaXuOuUqJZck-mdi2Wrt7d0tk8NmyBaiYkXL5c89Eu9sZEyW4XDv~CDPYaCafDx7ObPXVBoKsNCLYP-SgFbE637aIDC9d04RSBdCh-i0rda~8P57IRc3iNh7Yft~dDi-EmYaG2xIWusOi~bSkd1PpN1qIB0qHuXqLxRe-LCjw5HhJ9-pmyfpFEFrTwD3c36PqmBDuiWwXGhecklH7hmcTFVP9xzlLcHVADZ4bf3wce5ZekxPg3U8yIJz8cuNNwSr0UlCAypxj4zdHgzw__&Key-Pair-Id=APKAJLOHF5GGSLRBV4ZA. 
  28. ^ Montemerlo, Michael, et al. (2002). “FastSLAM: A factored solution to the simultaneous localization and mapping problem”. Aaai/iaai 593598 (2): 593-598. https://cdn.aaai.org/AAAI/2002/AAAI02-089.pdf. 
  29. ^ G. Grisetti, R. Kümmerle, C. Stachniss and W. Burgard (2010). “A Tutorial on Graph-Based SLAM”. EEE Intelligent Transportation Systems Magazine (IEEE) vol. 2 (no. 4): pp. 31-43. doi:10.1109/MITS.2010.939925. http://ais.informatik.uni-freiburg.de/publications/papers/grisetti10titsmag.pdf. 
  30. ^ Tateno, Keisuke and Tombari, Federico and Laina, Iro and Navab, Nassir (2017). “CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). https://openaccess.thecvf.com/content_cvpr_2017/papers/Tateno_CNN-SLAM_Real-Time_Dense_CVPR_2017_paper.pdf. 
  31. ^ DeTone, Daniel and Malisiewicz, Tomasz and Rabinovich, Andrew (2018). “SuperPoint: Self-Supervised Interest Point Detection and Description”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops: pp. 224-236. https://openaccess.thecvf.com/content_cvpr_2018_workshops/papers/w9/DeTone_SuperPoint_Self-Supervised_Interest_CVPR_2018_paper.pdf. 
  32. ^ Teed, Zachary, and Jia Deng (2021). “DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras”. Advances in neural information processing systems 34: 16558-16569. https://proceedings.neurips.cc/paper/2021/file/89fcd07f20b6785b92134bd6c1d0fa42-Paper.pdf. 
  33. ^ Wang, S., Clark, R., Wen, H., & Trigoni (2017). “DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks”. 2017 IEEE International Conference on Robotics and Automation (ICRA) (IEEE): pp. 2043-2050. doi:10.1109/ICRA.2017.7989236. https://www.cs.ox.ac.uk/files/9026/DeepVO.pdf. 

参考文献

関連項目


スラム (曖昧さ回避)

(SLAM から転送)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/10/31 20:35 UTC 版)

スラム

slam

スラム (slam)、スラミング (slamming)

  • 英語で叩きつける、(ドアなどを)ぴしゃりと閉める、などの意。
スポーツ

格闘技でのスラムは類似の言葉としてバスターが使用されていたが、近年はUFCを中心としたアメリカでスラム、スラミングに統一されており、日本もそれに準じてスラムに統一されつつある。日本でバスターが使用されるのは中井祐樹がプロレス技のブレーンバスターから着想し多用していたため[1]

船舶工学
その他

SLAM

ロボット工学
  • Simultaneous Localization and Mappingの略称。自己位置推定と環境地図作成を同時に行うこと。SLAMを参照。
軍事

slum

  • スラム - 都市部における貧困層の居住地域

sram

脚注

[脚注の使い方]

関連項目


SLAM(Selectable Lightweight Attack Munitions)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/17 23:54 UTC 版)

ハーフライフ2」の記事における「SLAM(Selectable Lightweight Attack Munitions)」の解説

その場放り投げて遠隔操作起爆したり、壁や床などに貼り付けてトリップマインとして使用できる爆弾シングルプレイモードでは入手できず、『HL2:DM』のみで使用可能。

※この「SLAM(Selectable Lightweight Attack Munitions)」の解説は、「ハーフライフ2」の解説の一部です。
「SLAM(Selectable Lightweight Attack Munitions)」を含む「ハーフライフ2」の記事については、「ハーフライフ2」の概要を参照ください。

ウィキペディア小見出し辞書の「SLAM」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



固有名詞の分類


英和和英テキスト翻訳

英語⇒日本語日本語⇒英語

辞書ショートカット

すべての辞書の索引

「SLAM」の関連用語

SLAMのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



SLAMのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
実用日本語表現辞典実用日本語表現辞典
Copyright © 2026実用日本語表現辞典 All Rights Reserved.
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
独立行政法人科学技術振興機構独立行政法人科学技術振興機構
All Rights Reserved, Copyright © Japan Science and Technology Agency
日外アソシエーツ株式会社日外アソシエーツ株式会社
Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのSLAM (改訂履歴)、スラム (曖昧さ回避) (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaのハーフライフ2 (改訂履歴)、スラム (曖昧さ回避) (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2026 GRAS Group, Inc.RSS