Xây dựng bản đồ 2D cho robot di động sử dụng Point Cloud Library

pdf 15 trang phuongnguyen 120
Bạn đang xem tài liệu "Xây dựng bản đồ 2D cho robot di động sử dụng Point Cloud Library", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfxay_dung_ban_do_2d_cho_robot_di_dong_su_dung_point_cloud_lib.pdf

Nội dung text: Xây dựng bản đồ 2D cho robot di động sử dụng Point Cloud Library

  1. XÂY DỰNG BẢN ĐỒ 2D CHO ROBOT DI ĐỘNG SỬ DỤNG POINT CLOUD LIBRARY 2D MAP CONSTRUCTION FOR MOBILE ROBOT USING POINT CLOUD LIBRARY Đào Hồng Phong1, Ngô Văn Thuyên2 1 Học viên cao học, Trường Đại học Sư Phạm Kỹ Thuật TPHCM 2 Phó Hiệu trưởng, Trường Đại học Sư Phạm Kỹ Thuật TPHCM TÓM TẮT Hiện nay việc điều khiển di chuyển của robot chủ yếu dựa vào các loại cảm biến đo khoảng cách, xác định hướng và gia tốc để robot có thể quyết định quỹ đạo di chuyển. Sai số từ các cảm biến trả về cho robot là yếu tố không thể loại bỏ. Do đó việc tương tác với môi trường xung quanh sẽ giúp cho robot có thêm nhiều thông tin để có thể đưa ra quyết định hợp lý nhằm di chuyển đến các vị trí đích chính xác hơn. Bài báo này trình bày phương pháp xây dựng bản đồ môi trường bằng cách ghép các đám mây điểm ảnh của môi trường mà robot thu thập trong quá trình di chuyển dựa vào tốc độ, hướng, góc mở của camera Kinect và thư viện Point Cloud (PCL). Sau đó chiếu đám mây toàn cục hay bản đồ 3D này xuống mặt phẳng nền để tạo ra bản đồ 2D của môi trường. Robot sẽ kết hợp dữ liệu vừa thu thập với bản đồ môi trường đã được cung cấp trước đó và phương pháp nhận dạng vật mốc tự nhiên để xác định vị trí của robot trong môi trường. Bản đồ này sẽ giúp cho robot di chuyển quay lại các vị trí mà robot đã đi qua trước đó dễ dàng hơn hoặc bản đồ sau khi được robot này xây dựng xong sẽ gửi cho các robot khác sử dụng để di chuyển trong môi trường cũ mà không phải xây dựng lại. Kết quả của đề tài là đã xây dựng thành công bản đồ 2D từ dữ liệu 3D thu thập được khi robot di trong môi trường. Bản đồ này giúp cho việc điều khiển robot di chuyển theo các quỹ đạo mong muốn mà không cần đến sự chính xác cao của các cảm biến hay việc bố trí phức tạp các vật mốc nhân tạo sẵn trong môi trường. Bản đồ này nếu được kết hợp với phương pháp trích đặc trưng của đối tượng 3D trong môi trường sẽ giải quyết triệt để bài toán định vị và điều khiển di chuyển cho robot di động dựa vào vật mốc tự nhiên. Từ khóa: Point cloud library, map construction, mobile robot, mapping ABSTRACT Nowadays most robots’s navigation is based on distance, orientation and acceleration sensors to create the desired trajectory. The error of sensors are factors which could not be removed. Therefore the interaction between the robot and enviroment will help robot get more information in order to reach destinations more accurate. This paper presents the method for building the environment map by matching point clouds of the environment which are collected while the robot is moving. The matching is based on the velocity, direction, view angle of Kinect camera and Point Cloud Library (PCL). Then this global point cloud or 3D map is projected onto the ground to create the 2D environment map.
  2. The robot will combine the recently 2D map with the previous map which is provided before and the procedure of recognition nutural landmarks to localize the position of the robot in the environment. In addition, this 2D map will help the robot could return to positions where the robot went to easier or use for other robots to travel in this environment without rebuilding the map. The result showed that 2D map was built from 3D data which was collected while the robot was running in the environment. This map support the robot navigates following desired orbits without a highly accurate rate of sensors or establishing artificial landmarks in the environment. This environment map could be combined with features extracted method of 3D objects to solve localization and navigation problems based on natural landmarks. Keywords: Point cloud library, map construction, mobile robot, mapping Ký hiệu: Ký hiệu Đơn vị Ý nghĩa k mm Khoảng cách giữa hai điểm lân cận trong cùng một đám mây Leafsize mm Kích thước lọc trong Voxel Grid y độ (o) Góc giao giữa hai frame ảnh liên tiếp theo chiều ngang x mm Bề rộng phần giao nhau của hai frame ảnh liên tiếp h mm Chiều cao từ mặt đất đến tâm của camera s mm2 Diện tích của vùng giao nhau giữa hai frame ảnh rfpfh mm Bán kính tìm kiếm điểm tương đồng giữa hai đám mây Chữ viết tắt: PCL: Point Cloud Library PCD: Point Cloud Data ICP: Iterative Closest Points SAC-IA: SampleConsensus InitialAlignment FPFH: Fast Point Features Histograms RANSAC: RANdom SAmple Consensus SPFH: Simplified Point Feature Histogram 1. TỔNG QUAN Thông qua việc điều hướng của robot bằng phương pháp xử lí ảnh [1], [ 2] robot có thể xây dựng lại bản đồ của môi trường trong suốt quá trình di chuyển, nhằm phục vụ cho nhu cầu điều khiển robot di chuyển quay lại các vị trí mong muốn mà robot đã từng đi qua dễ dàng hơn. Việc xây dựng lại bản đồ khi robot đang di chuyển là một vấn đề mới được đặt ra bên cạnh các thách thức trước đây như định vị và tránh vật cản. Nhược điểm của các nghiên cứu đã thực hiện là chỉ
  3. xử lí được các khung ảnh hiện tại, cho nên khi robot đã di chuyển qua hoặc chưa thu thập được các khung ảnh mới thì robot sẽ không xác định được vị trí hiện tại trong môi trường. Việc kết hợp điều hướng cho robot và sử dụng camera Kinect thu thập các đám mây điểm ảnh 3D sau đó xây dựng lại bản đồ dạng 2D của môi trường sẽ giúp cho việc định vị và di chuyển của robot chính xác hơn. Mỗi đám mây điểm ảnh như vậy sẽ có tọa độ tương đối so với camera hay robot đang di chuyển. Như vậy khi ghép các đám mây điểm ảnh lại với nhau để tạo thành bản đồ 3D thì phải đồng bộ tọa độ của các điểm ảnh trong từng đám mây riêng lẻ vào đám mây điểm ảnh toàn cục. Sau đó thực hiện phép chiếu đám mây toàn cục này xuống mặt phẳng nền để tạo thành bản đồ 2D. Bài báo này trình bày phương pháp xây dựng bản đồ 2D của môi trường bằng cách ghép các đám mây điểm ảnh 3D thu thập được trong quá trình robot di chuyển. Phần 2 trình bày cơ sở lý thuyết về quá trình khởi tạo đám mây, phương pháp lọc và giảm số lượng điểm ảnh, tìm và ghép đám mây điểm ảnh dựa vào cặp điểm tương đồng giữa hai đám mây và lưu đồ của các thuật toán. Kết quả thực nghiệm và kết luận được trình bày ở phần 3 và phần 4. 2. CƠ SỞ LÝ THUYẾT Trong thế giới thực để quan sát toàn bộ đối tượng người ta thường quan sát với nhiều góc nhìn và vị trí khác nhau, mỗi góc nhìn như vậy tương ứng với một frame ảnh. Tuy nhiên khi có nhiều frame ảnh ánh xạ lên cùng một không gian 3D thì các frame ảnh này sẽ bị chồng lên nhau như Hình 2.1 [4]. Vấn đề đặt ra là các frame ảnh này cần được sắp xếp lại trên hệ trục tọa độ trong thế giới thực để các frame không bị trùng lắp. Hình 2.1: Minh họa 3 frame ảnh trên cùng 1 hệ trục của camera Kinect 2.1. Quy trình thực hiện ghép hai đám mây Bước 1: Chọn một đám mây điểm ảnh làm gốc. Trong frame gốc này, hệ trục tọa độ của camera cũng chính là hệ trục tọa độ của môi trường thực. Bước 2: Thu thập đám mây điểm ảnh tiếp theo, kiểm tra với tất cả các đám mây điểm ảnh cũ để tìm các cặp điểm tương đồng. Bước 3: Loại bỏ các cặp không có độ sâu, lọc bớt các cặp không chính xác so với các cặp khác. Bước 4: Ước lượng vị trí tương đối giữa hai đám mây điểm ảnh trong không gian, ước lượng hàm chuyển đổi sao cho khoảng cách giữa các cặp điểm tương đồng là nhỏ nhất. Bước 5: Thực hiện xắp xếp, ghép đám mây mới vào đám mây toàn cục sử dụng hàm chuyển đổi vừa tìm ở bước 4.
  4. 2.2. Khởi tạo bản đồ Đám mây điểm ảnh của môi trường là tập hợp nhiều điểm nhỏ rời rạc. Quá trình thu thập các điểm ảnh này từ camera là ngẫu nhiên do thư viện PCL mặc định sẵn và kết quả là Point Cloud Data được lưu trong bộ nhớ máy tính dạng tập tin *.Pcd. Đám mây điểm đầu tiên được định nghĩa là đám mây toàn cục hay bản đồ. Các đám mây thu thập tiếp theo sẽ được xem xét điều kiện chấp nhận để ghép vào đám mây toàn cục này. Khởi động camera Chụp và lưu đám mây đầu tiên Gán đám mây đầu tiên thành đám mây toàn cục Hình 2.2: Lưu đồ khởi tạo đám mây đầu tiên 2.3. Giảm số lượng điểm ảnh cho mỗi đám mây điểm ảnh Hai điểm ảnh trong một đám mây điểm thu bởi camera Kinect có thể cách nhau tối thiểu vài mm. Trong trường hợp xây dựng bản đồ môi trường với diện tích lên đến vài m2 thì không cần độ chính xác lên đến mm. Quá trình giảm số lượng điểm ảnh được thực hiện bằng cách chia đám mây điểm ảnh trong hộp voxels như trình bày trong Hình 2.3 với kích thước mong muốn [5]. Tất cả các điểm trong cùng một hộp voxels được thay bằng một điểm duy nhất tương ứng với trọng tâm của hộp. Lưu đồ của quá trình thực hiện giảm số lượng điểm ảnh dùng Voxel Grid trong PCL được trình bày như Hình 2.4. Với số lượng điểm ảnh trên 300.000 điểm sẽ làm cho tốc độ xử lí của máy tính rất chậm, do đó cần phải giảm số lượng mẫu xuống dưới 50.000 điểm [5]. Hình 2.3: Phương pháp lọc Voxel Grid
  5. Load đám mây Leafsize = 1mm Sai Số lượng > 50.000 Đúng Lọc Voxel Grid Đám mây đã lọc Tăng Leafsize 1mm Hình 2.4: Lưu đồ lọc đám mây dùng Voxel Grid 2.4. Tìm điểm đặc trưng của đám mây Điểm đặc trưng là điểm đại diện cho một tính năng hay một đối tượng trong đám mây điểm ảnh. Các điểm đặc trưngđược tìm kiếm dựa trên bán kính và hướng. Sau đó thực hiện việc so sánh từng cặp điểm đặc trưng của đám mây điểm thứ nhất với đám mây điểm thứ hai. Lưu đồ thuật toán tìm điểm đặc trưng của một đám mây được trình bày như trong Hình 2.5. Tìm vùng lân cận của điểm pq Tìm k giữa điểm pq với pk xung quanh Đúng Sai k thay đổi đột ngột? Xác định điểm Không phải đặc trưng điểm đặc trưng Hình 2.5: Lưu đồ tìm điểm đặc trưng của đám mây 2.5. Tìm điểm tương đồng giữa hai đám mây Các điểm ảnh được so sánh với nhau dựa vào đặc tính hình dáng và tính năng hình học, từ đó xác định các điểm tương đồng giữa hai đám mây. Hình 2.6 cho thấy hai đám mây có lần lượt ba cặp điểm tương đồng [6].
  6. Hình 2.6: Các cặp điểm tương đồng giữa hai đám mây điểm ảnh Một trong những thuật toán xác định các cặp điểm tương đồng giữa hai ảnh cho kết quả nhanh và đảm bảo chất lượng là thuật toán SURF (Speeded – Up Robust Features) [7] gồm 3 bước: Bước 1: Xác định các điểm đặc trưng xấp xỉ trên ma trận Hessian và ảnh tích lũy (integral image). Sử dụng box filter tăng tốc quá trình tính toán thay vì áp dụng hàm Gaussian mà vẫn đảm bảo kết quả. Hình 2.7: Box filter được sử dụng để tăng tốc độ xác định các điểm đặc trưng Bước 2: Tính toán hướng của các điểm đặc trưng dựa vào vị trí trong không gian ảnh mà điểm đặc trưng tìm được. Từ đó xác định mô tả chi tiết bằng cách trích thông tin những vùng không gian ảnh lân cận điểm đặc trưng. Hình 2.8: Mô tả đặc trưng thông qua hướng và thông tin của các vùng lân cận Bước 3: Đối chiếu các điểm đặc trưng tìm được giữa hai ảnh để tìm ra những cặp điểm tương đồng tốt nhất bằng cách đánh chỉ mục trong quá trình xác định điểm đặc trưng. Hình 2.9: Đặc trưng của điểm ảnh Lưu đồ tìm điểm tương đồng giữa hai đám mây được trình bày như trong hình Error! Reference source not found
  7. Hình 2.10: Lưu đồ tìm cặp điểm tương đồng giữa hai đám mây 2.6. Ghép đám mây sử dụng sac-ia và icp Thuật toán ICP là quá trình sắp xếp hai tập dữ liệu đám mây điểm bằng cách tối thiểu khoảng cách Euclidean giữa các điểm tương đồng. Thuật toán này tìm kiếm cặp điểm 3D gần nhất trong ảnh nguồn và ảnh đích sau đó định nghĩa chúng là tương đồng nếu khoảng cách giữa chúng nhỏ hơn khoảng cách ngưỡng cho trước. Thuật toán sẽ ước lượng một hàm biến đổi để tối thiểu hóa khoảng cách giữa các cặp điểm tưng đồng và lặp lại cho đến khi sự khác biệt giữa các biến đổi liên tục nhỏ hơn so với giới hạn cho phép hoặc cho đến khi việc lặp lại đạt tới số lượng tối đa. Tuy nhiên ICP cũng có nhược điểm là sẽ hội tụ đến điểm cực tiểu cục bộ, kết quả thu được không phải là một quá trình ghi dữ liệu hiệu quả do đó có thể phải lặp lại quá trình này rất nhiều lần. Nếu kết quả của việc tìm kiếm cặp điểm tương đồng sau khi thực hiện theo lưu đồ trên không thu được kết quả mong muốn thì thuật toán sẽ thực hiện lưu đồ ICP thứ hai như được trình bày trong Hình 2.11[5].
  8. Đám mây mới: đám mây ICP nguồn Bản đồ trước: đám mây Sắp xếp ICP ICP đích Quyết định? Nếu Fitness > giá trị chấp nhận nhỏ nhất Tính toán tính năng Nếu Fitness ≤ giá trị chấp nhận nhỏ nhất Tính năng đám mây trước: mục tiêu SACIA Sắp xếp SACIA Săp xếp ICP tiếp theo Điểm Fitness Hình 2.11: Ghép đám mây sử dụng SAC-IA và ICP Sau khi ICP thứ hai thực hiện xong kết quả được đưa ra để quyết định xem các đám mây mới có được ghép vào bản đồ hay không. Lưu đồ thực hiện ghép liên tiếp nhiều đám mây dùng SAC-IA kết hợp với ICP được trình bày như trong Hình 2.12 [5]. Hình 2.12: Lưu đồ ghép các đám mây dùng SAC-IA kết hợp ICP
  9. 2.7. Quyết định lồng đám mây điểm Trong bước cuối cùng quá trình ghi đám mây điểm sẽ quyết định có hoặc không lồng ghép một đám mây vào trong bản đồ. Kết quả thực nghiệm cho thấy các đám mây có tỉ lệ nhỏ hơn 0,001 sẽ thỏa điều kiện liên kết vào bản đồ. 3. Kết quả thực nghiệm 3.1. Kết nối kinect và hiển thị đối tượng dùng thư viện mã nguồn mở point cloud library Đám mây điểm ảnh của vật thể hiển thị trên màn hình là tập hợp nhiều điểm nhỏ rời rạc. Mỗi điểm là kết quả của quá trình đo khoảng cách từ camera đến bề mặt vật thể. Đám mây điểm ảnh này chỉ hiển thị cho những phần bề mặt mà camera nhìn thấy được, phần bề mặt khuất sẽ không hiển thị. Đây cũng là vấn đề cần được giải quyết bằng cách ghép và sắp xếp các đám mây ở nhiều vị trí khác để bổ sung cho các phần khuyết này. Hình 3.1: Đám mây điểm ảnh thu được từ camera Kinnect và dữ liệu *.pcd của đám mây 3.2. Giảm số lượng điểm ảnh của đám mây Thực hiện liên tiếp quá trình lọc với kích thước tăng dần sau mỗi lần lặp là 1mm. Bảng 3.1 trình bày kết quả sau khi thực hiện lọc với nhiều giá trị khác nhau, số lượng điểm ảnh giảm đáng kể, tốc độ xử lí cũng tăng lên. Nhưng kết quả là đám mây điểm ảnh trở nên thưa thớt sẽ làm giảm số lượng cặp điểm tương đồng. Do đó giá trị lọc thích hợp được sử dụng trong đề tài là 6mm. Bảng 3.1: Số lượng điểm ảnh sau mỗi lần lọc Số điểm Ảnh gốc ảnh307200 Lọc 1mm x 1mm x 251365 1mmLọ c 2mm x 2mm x 237717 2mmLọ c 3mm x 3mm x 128294 3mmLọ c 4mm x 4mm x 78267 4mLmọ c 5mm x 5mm x 50002 5mLmọ c 6mm x 6mm x 36457 6mm 3.3. Tìm cặp điểm tương đồng giữa hai đám mây Ở lần thực hiện đầu tiên, robot được đặt cách bức tường 1m, đám mây thứ nhất được chụp khi robot đặt xoay trái 250 so với phương vuông góc của bức tường và đám mây thứ hai được chụp khi robot xoay phải 500.
  10. Hình 3.2: Hai vị trí của robot khi chụp hai đám mây Với khoảng cách và vị trí đặt robot như trên vùng trùng lắp giữa hai frame ảnh được trình bày như Hình 3.3. Hình 3.3: Vùng trùng lắp giữa hai frame ảnh Với góc mở của camera Kinect là 580 theo chiều ngang, vùng giao nhau giữa hai đám mây điểm liên tiếp thu được tại hai vị trí khác nhau của robot như trong Hình 3.4 được tính như sau: y 290 .2 50 0 8 0 (3.1) y.2 80 .2 x .1000= .1000=139.62(mm) 140(mm) (3.2) 36000 360 Trong đó: x : bề ngang của vùng giao nhau y : góc giao nhau giữa vùng l : khoảng cách từ camera (robot) đến bức tường Với góc mở của Kinect là 440 [8] theo chiều thẳng đứng và độ cao của camera so với mặt sàn là 45cm, chiều cao vùng giao nhau giữa hai vị trí khác nhau của robot được mô tả như trong Hình 3.5 và được tính theo công thức (3.3). Hình 3.4: Tìm độ rộng của vùng giao nhau giữa hai frame ảnh
  11. Hình 3.5: Tìm chiều cao của vùng giao nhau giữa hai frame ảnh 00 44 h 44 h 400(mm) (3.3) tg h 1000.tg 404.026(mm) 2 1000 2 Từ công thức (3.2) và (3.3) diện tích vùng giao nhau được tính như sau: s= x . h h ' 140. 400 450 119 mm2 (3.4) Thư viện fpfh.h trong PCL được sử dụng để tìm số điểm ảnh tương đồng giữa hai đám mây điểm. Trong đó bán kính tìm kíếm điểm tương đồng rfpfh được chọn là 150mm thay vì 140mm như đã tính toán ở công thức (3.2) để đảm bảo khả năng tìm kiếm đạt hiệu quả cao. 3.4. Thực hiện ghép hai đám mây điểm ảnh Thuật toán SAC-IA và ICP của thư viện PCL được áp dụng để thực hiện ghép hai đám mây điểm. Các thông số max_correspondence_distance, min_sample_distance và nr_iterations phải được thiết lập khi sử dụng thư viện PCL. Dựa vào công thức (3.2) để thiết lập giá trị khoảng cách nhỏ nhất của vùng tìm kiếm và sắp xếp với giá trị max_correspondence_distance bằng 453mm và min_sample_distance bằng 6mm. Với vị trí của robot như trình bày ở trên, thông số nr_iterations được tính toán như sau: 58o .2 58 o .2 58 o .2 width .Rl . .1000 1042(mm) (3.5) 360o 360 o 360 o Suy ra: width 1042 nr_ iterations 173.66 (3.6) min _ sample _ distance 6 Từ kết quả của phương trình (3.6) giá trị nr_iterations thực tế được chọn sẽ lớn hơn giá trị tính toán để đảm bảo khả năng ghép là tốt nhất, giá trị được chọn là 200 lần lặp.
  12. Hình 3.6: Bề rộng của frame ảnh 3.5. Chiếu đám mây điểm ảnh xuống mặt phẳng nền Camera được đặt cách mặt sàn với độ cao là 45cm, do đó khi thực hiện phép chiếu các điểm ảnh xuống mặt phẳng nền nghĩa là thực hiện việc khử độ cao (trục x) như trong Hình 3.7. Hình 3.7: Chiếu một điểm ảnh xuống nền nhà Để thực hiện điều này thuật toán Plannar segmentation trong thư viện PCL được sử dụng để tìm mặt phẳng nền trong đám mây điểm ảnh. Thuật toán này này sẽ tách các điểm có cấu trúc phẳng, sau đó xác định đám mây có tổng số điểm ảnh lớn nhất bằng giải thuật RANSAC. Dữ liệu đám mây trong không gian 3D được chiếu xuống mặt phẳng nền để có được hình chiếu của vật thể ở dạng 2D. Hình 3.8: Đám mây điểm ảnh đã được chiếu xuống mặt phẳng nền 3.6. GHÉP NHIỀU ĐÁM MÂY ĐIỂM ẢNH Sau khi thực hiện ghép hai đám mây điểm ảnh xong thì nhiều đám mây tiếp theo khác cũng được ghép với cùng phương pháp trên. Hình 3.10 trình bày kết quả ghép ba ảnh RGB của môi trường có kích thước 4mx4m.
  13. Hình 3.9: Ảnh RGB và đám mây điểm ảnh tương ứng Hình 3.10: Đám mây toàn cục đã chiếu xuống nền nhà 4. KẾT LUẬN Bản đồ 2D của môi trường đã xây dựng thành công từ đám mây điểm 3D khi robot di chuyển mà không cần đến sự chính xác của các loại cảm biến khác trên robot hay sự bố trí phức tạp các vật mộc nhân tạo trong môi trường. Kết quả này nếu được kết hợp với việc trích đặc trưng của đối tượng 3D trong môi trường sẽ giải quyết triệt để vấn đề định vị và điều khiển di chuyển của robot di động dựa trên vật mốc tự nhiên. Tuy nhiên bản đồ 2D thu được là một dải điểm ảnh thay vì một đường thẳng. Thuật toán RANSAC được đề xuất để xử lí vấn đề trên. Mặt khác tốc độ xử lí hiện tại vẫn không cao do số lượng điểm ảnh quá lớn. Do đó thuật toán ghép nhiều đám mây điểm ảnh cần được tối ưu hơn nữa. Tài liệu tham khảo [1] Nguyễn Hồng Đức và Nguyễn Văn Đức, Robot tự hành tránh vật cản sử dụng thiết bị Kinect, luận văn tốt nghiệp, 2012, Đại Học Quốc Gia TP HCM. [2] Lê Hoàng Anh, Định vị cho Robot di động dùng camera và cột mốc, luận văn thạc sỹ 2012, ĐH Sư Phạm Kỹ Thuật TP.HCM, khoa Điện - Điện tử. [3] Behnam Adlkhast và Omid Manikhi, A 3D object scanner, luận văn thạc sỹ, October 2013, Halmstad University, Information Technology 120 ECTS, PO Box 823, SE-301 18 HALMSTAD, Sweden.
  14. [4] Nguyễn Hoàng Minh và Trương Ngọc Tuấn, Hệ thống thiết kế và trình diễn ảnh 3 chiều, khóa luận chính quy, Khoa công nghệ thông tin, bộ môn công nghệ phần mềm, Trường ĐH Khoa học tự nhiên. [5] Emmanuel Perez Bonnal, 3D Mapping of indoor environments using RGB-D Kinect camera for robotic mobile application, Final Project, July 2011, Politecnico Di Torino, Department of Control and computer engineering. [6] features-work, how-3d-features-work. [7] Herbert Bay, Tinne Tuytelaars, và Luc Van Goo, SURF: Speeded Up Robust Features, ETH Zurich, Katholieke Universiteit Leuven. [8] robot.html, kinect-va-ung-dung-trong-mobile-robot THÔNG TIN TÁC GIẢ CHÍNH Họ và tên: Đào Hồng Phong. Đơn vị: Trường Đại học Lạc Hồng Điện thoại: 0978220396 Email: daohongphong@lhu.edu.vn
  15. BÀI BÁO KHOA HỌC THỰC HIỆN CÔNG BỐ THEO QUY CHẾ ĐÀO TẠO THẠC SỸ Bài báo khoa học của học viên có xác nhận và đề xuất cho đăng của Giảng viên hướng dẫn Bản tiếng Việt ©, TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT TP. HỒ CHÍ MINH và TÁC GIẢ Bản quyền tác phẩm đã được bảo hộ bởi Luật xuất bản và Luật Sở hữu trí tuệ Việt Nam. Nghiêm cấm mọi hình thức xuất bản, sao chụp, phát tán nội dung khi chưa có sự đồng ý của tác giả và Trường Đại học Sư phạm Kỹ thuật TP. Hồ Chí Minh. ĐỂ CÓ BÀI BÁO KHOA HỌC TỐT, CẦN CHUNG TAY BẢO VỆ TÁC QUYỀN! Thực hiện theo MTCL & KHTHMTCL Năm học 2016-2017 của Thư viện Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh.