Journal of Space Science and Technology

Journal of Space Science and Technology

Automatic Reading of a Trade Gyrocompass Using Image Processing and Neural Networks

Authors
Abstract
Gyrocompass is used to justify and aim (orient) the missiles; it is used in equipment and accuracy of launch position as well to find azimuth in particular points. Observations and reading in this kind of compass are done optically which suffers from low accuracy and optical illusion. In this paper a simple algorithm is suggested by utilizing methods based on processing digital image and neural networks for automatic reading of a trade gyrocompass. In the method at first, by analyzing the difference of sequential images taken from the compass display, the back frame is specified. Then the display region is extracted by edge detection and morphology operation. After that the segmented numbers are recognized one by one through the trained neural networks. Finally, the gyrocompass angle is calculated accompanied by accuracy of arc second by geometric analysis of relative position of scaled board and indicated index. The usage of suggested method in the step of back frame recognition has been evaluated on 6 real test video sequences and the next steps have also been evaluated on more than 300 real images.
Keywords

Article Title Persian

قرائت خودکار یک جایروکامپس تجاری با استفاده از پردازش تصویر و شبکه‌های عصبی

Authors Persian

بهمن شهگلی
پیمان معلم
مسعود کاوش‌تهرانی
شهرام پروین‌جهرمی
سیدامین حسینی
Abstract Persian

از جایروکامپس در توجیه و نشانه‏روی موشک‌ها، همچنین در تجهیز موضع پرتاب و صحت تجهیز موضع پرتاب برای پیداکردن آزیموت نقاط خاصی استفاده می‏شود. مشاهدات و قرائت در این نوع قطب‌نما به‌صورت چشمی انجام می‌شود که دقت پایین و خطای مشاهداتی را به دنبال دارد. در این مقاله، الگوریتمی ساده برای قرائت خودکار یک قطب‏نمای ژیروسکوپی تجاری، با استفاده از روش‏های مبتنی بر پردازش تصویر دیجیتال و شبکه‏های عصبی، پیشنهاد شده است. در روش پیشنهادی، در ابتدا، با استفاده از تحلیل تفاضل تصاویر متوالی گرفته شده از صفحةنمایشگر قطب‌نمای مورد نظر، قاب برگشتی مشخص می‏شود. در ادامه با استفاده از لبه‌یابی و عملیات انبساط تصویر بر روی قاب برگشتی، ناحیةمورد قرائت استخراج شده، ارقام موجود در این ناحیه تفکیک‌شده و با عبور تک‏تک این ارقام از شبکه‏های عصبی ارقام مورد نظر، بازشناسی می‌شوند. در انتها با تحلیل هندسی موقعیت نسبی صفحةمدرج و شاخص نمایش، زاویةژایروسکوپ با دقت ثانیه قوسی محاسبه می‏شود. استفاده از روش پیشنهادی در مرحلة تشخیص قاب بازگشتی روی 6 قطعه فیلم واقعی و مراحل بعدی آن روی بیش از 300 تصویر واقعی ارزیابی شده است.

Keywords Persian

تحلیل حرکت
مورفولوژی
لبه‏یابی
پرسپترون چندلایه
کوانتیزاسیون برداری
  1. Savet, P.H. Gyroscopes: Teory and Design with Application to Instrumentation, Guidance and Control, McGraw-Hill, 1961, Chpter 5.
  2. Szeliski, R., Computer Vision: Algorithms and Applications, Springer, New York, Chapters 4 and 5, 2010.
  3. Gonzales, R. and Woods, R.E. Digital Image Processing, Addison-Wesely, 2008, pp. 523, 524, 535 and 550.
  4. Shahgoli, B., Moallem, P., Kavosh-Tehrani, M. and ParvinJahromi, Sh., “Automatic Reading of Optomechanical Teodolite by Analysis of Display Video Images,” Aerospace Conference, Tarbiat Modares University, 1389, pp. 1-6, (In Persian).
  5. Faraji, F. and Safabakhsh, R., “Fast and New Method for Recognition a Licenseplate Position from Complicated Images on Based of Morphological Operation,” Iran Fourth Conference of Machine Vision & Image Processing, Ferdosi University of Mashhad, 2007, p. 5, (In Persian).
  6. Memarzadeh, M., Automatic Recognition of Persian Licenceplate by Using Image Processing and Neural Networks, (Thesis M. Sc.), Islamic Azad University of Najafabad, Technical & Engineering Faculty, 1387, (In Persian).
  7. Menhaj, M., Fundamentals of Neural Networks, Amirkabir Publication, Amirkabir University, 2012, pp. 520-548, pp. 313-331 (In Persian).
  8. Jayas, D.S., Paliwal, J. and Visen, N.S., "Multi-Layer Neural Networks for Image Analysis of Agricultural Product," Journal of Agricultural Engineering Research, Vol. 72, No. 2, 2000, pp. 119-128
Volume 7, Issue 2 - Serial Number 19
شماره پیاپی 19
Summer 2014
Pages 85-92

  • Receive Date 11 October 2014
  • Revise Date 05 February 2024
  • Accept Date 19 April 2016
  • First Publish Date 19 April 2016