Arama Sonuçları

Listeleniyor 1 - 3 / 3
  • Yayın
    Ground plane detection using an RGB-D sensor
    (Springer, 2014-10-27) Kırcalı, Doğan; Tek, Faik Boray
    Ground plane detection is essential for successful navigation of vision based mobile robots. We introduce a very simple but robust ground plane detection method based on depth information obtained using anRGB-Depth sensor. We present two different variations of the method: the simplest one is robust in setups where the sensor pitch angle is fixed and has no roll, whereas the second one can handle changes in pitch and roll angles. Our comparisons show that our approach performs better than the vertical disparity approach. It produces accurate ground plane-obstacle segmentation for difficult scenes, which include many obstacles, different floor surfaces, stairs, and narrow corridors.
  • Yayın
    Microsoft Kinect Sensörü kullanarak zemin düzlemi algılama
    (IEEE, 2013-06-13) Kırcalı, Doğan; Tek, Faik Boray; İyidir, İbrahim Kamil
    Görüntü işleme tabanlı mobil robotların başarılı navigasyonu için zemin düzlemi algılama esastır. Bu bildiride Kinect derinlik sensöründen elde edilen derinlik bilgisine dayalı yeni ve gürbüz bir zemin düzlemi algılama algoritması önerilmektedir. Literatürdeki benzer yöntemlerin aksine, zemin düzleminin sahnedeki en büyük alan olduğunu varsayılmamaktadır. Yöntemimiz sensörün yeri görüş açısının sabit olduğu veya değişken olabileceği iki farklı durum için iki değişik algoritma halinde sunulmaktadır. Yaptığımız deneylerde her iki durum için önerdiğimiz algoritmaların oldukça başarılı olduğu gösterilmektedir.
  • Yayın
    Adaptive visual obstacle detection for mobile robots using monocular camera and ultrasonic sensor
    (Springer-Verlag, 2012-10-07) İyidir, İbrahim Kamil; Tek, Faik Boray; Kırcalı, Doğan
    This paper presents a novel vision based obstacle detection algorithm that is adapted from a powerful background subtraction algorithm: ViBe (VIsual Background Extractor). We describe an adaptive obstacle detection method using monocular color vision and an ultrasonic distance sensor. Our approach assumes an obstacle free region in front of the robot in the initial frame. However, the method dynamically adapts to its environment in the succeeding frames. The adaptation is performed using a model update rule based on using ultrasonic distance sensor reading. Our detailed experiments validate the proposed concept and ultrasonic sensor based model update.