Está conformado por cámaras web que actúan como sensores de visión capaces de identificar cualquier objeto
BUAP. 23 de septiembre de 2016.- Investigadores de la Facultad de Ciencias de la Electrónica (FCE) de la BUAP diseñaron un sistema de visión artificial inteligente, útil para la industria al localizar y reconocer automáticamente componentes electrónicos, piezas y materiales en la fabricación de diferentes aparatos.
Jaime Cid Monjaraz, profesor investigador de la FCE, dio a conocer que dicho sistema está conformado por una serie de cámaras web que actúan como sensores de visión, capaces de identificar cualquier objeto que se desee, así como la función del mismo, gracias a que trabajan con un conjunto de algoritmos programados por ellos mismos, y que pueden ser procesados por una microcomputadora.
De este modo es posible ubicar algún elemento dentro de una habitación o espacio específico, de forma automática y en cuestión de segundos, a través de la implementación de patrones de reconocimiento de ciertas características que son captadas por la cámara y reproducidas en un plano de imágenes en dos dimensiones.
“Este procedimiento lo llevamos a cabo en el reconocimiento de diferentes tarjetas electrónicas y el sistema identificó el modelo de cada una, así como todos los componentes que la conformaban”, comentó.
Actualmente, el equipo de investigación trabaja en la adaptación de este sistema de visión inteligente, tanto en un brazo robótico como en una banda transportadora. “Esto permitirá que las cámaras verifiquen que las tarjetas electrónicas que pasen por la banda estén completas, así como reportar a la persona encargada de la producción sobre los casos en los que les haga falta algún aditamento, como un transistor, un chip, un led, etcétera”.
Cid Monjaraz señaló que estas funciones posibilitan un mayor control en los sistemas de calidad de los diferentes tipos de industrias y empresas, al asegurar que los productos y aparatos que se producen cuenten con todos los elementos necesarios una vez que han sido fabricados y con ello evitar algún error que haya pasado por alto el ojo humano.
“Además, los algoritmos que introducimos en el sistema pueden ser de gran utilidad en diferentes áreas de trabajo, como por ejemplo en el reconocimiento de señales de emergencia en las fábricas, la identificación de libros en una tienda, el rastreo de objetos perdidos, la supervisión del llenado de botellas y otras actividades que requieran de una evaluación minuciosa”, recalcó.
Para llevar a cabo esta función, lo primero es almacenar una serie de fotos e imágenes de las cosas que se desean reconocer con la cámara, para que al momento de que ésta realice la búsqueda reconozca los patrones y características de los objetos en la base de datos y establezca una relación.
Esto quiere decir que si una persona que se encuentra en una habitación, taller o laboratorio necesita encontrar una memoria, tornillo o tarjeta, podrá buscarlo de forma sencilla y eficaz sólo con introducir las características del objeto en el sistema, el cual escaneará el lugar, por medio de las cámaras, hasta encontrar lo que se busca, sin importar la posición del objeto.
Cid Monjaraz, doctor en Ingeniería Mecatrónica, enfatizó que toda la transferencia de información de las cámaras hacia el sistema es por medio de una red inalámbrica y que la captura de imágenes se lleva a cabo en tiempo real.
En este proyecto también participa el doctor Fernando Reyes Cortés, profesor investigador de la FCE. Cuenta con dos registros de solicitud de patente ante el Instituto Mexicano de la Propiedad Industrial, una con el nombre de “Sistema de Control de Movimiento para un Robot de Transmisión Directa Mediante Retroalimentación Visual”, número MX/E/2015/053144; y la otra, “Sistema para Automatización de Banda Transportadora con Retroalimentación Visual”, número MX/E/2015/053086.
De igual forma, tiene dos solicitudes de registro de patente ante el Internacional Patent System del World Intellectual Property Organization (WIPO), con los títulos “Motion Control System for a Direct Drive Robot Through Visual Servoing” y “System for Conveyor belt Automation with Visual Servoing”, respectivamente.