banner

Blog

Sep 10, 2023

Las técnicas creativas de iluminación permiten la creación de imágenes computacionales

Fuente de la imagen: Luces de visión inteligente

El concepto de imágenes computacionales puede ser nuevo para muchos, pero el valor de esta tecnología ya algo madura es de gran alcance. Las aplicaciones que involucran entrada de imágenes de múltiples imágenes y luces múltiples con imágenes de salida calculadas basadas en algoritmos se han expandido mucho más allá del ámbito original de I + D. Esta tecnología se ha abierto camino en la inspección industrial automatizada, donde el uso creativo de los componentes de iluminación ha surgido como una tecnología habilitadora que brinda valiosas capacidades de imagen.

En términos generales, el término "imágenes computacionales" se puede aplicar a diversas técnicas que emplean algoritmos para crear una sola imagen a partir de más de una sola adquisición óptica. La investigación sobre imágenes computacionales involucra cámaras sin lente, de un solo píxel e incluso planas. Las implementaciones de visión artificial de imágenes computacionales son mucho más maduras, y los componentes y el software para áreas de aplicación específicas son más fáciles de usar que nunca. En dos casos de uso comunes, los dispositivos de iluminación y los controles contribuyen a las capacidades clave de creación de imágenes. Estos casos de uso son imágenes estéreo fotométricas (o forma a partir del sombreado), que se utilizan para resaltar características geométricas e imágenes en color de alta resolución.

La imagen estéreo fotométrica está estrechamente relacionada con la imagen 3D. Si bien no es una representación 3D física directa de una escena, una imagen estéreo fotométrica representa la forma geométrica de las características de la imagen, y la creación de imágenes se implementa mucho más fácilmente. Por lo general, se usa una sola cámara y se combinan múltiples fuentes de iluminación sobre múltiples imágenes en un software que está fácilmente disponible y es compatible con muchos componentes de visión artificial y bibliotecas de software.

Fundamentalmente, el estéreo fotométrico en imágenes computacionales para visión artificial aprovecha la iluminación de múltiples ángulos para extraer características cuya altura varía de la de las superficies circundantes. En una adquisición de una sola imagen, las características aparecen brillantes con respecto a la superficie cercana. Esta técnica de iluminación se usa ampliamente en la visión artificial para detectar con eficacia las características y los defectos de la superficie. Sin embargo, cuando se adquiere una serie de imágenes con iluminación proveniente de diferentes ángulos (Figura 1), las imágenes resultantes se pueden combinar mediante un algoritmo de forma a partir del sombreado para obtener una representación de imagen 3D no calibrada de la altura relativa de las características.

Figura 1: El estéreo fotométrico en imágenes computacionales para visión artificial aprovecha la iluminación de múltiples ángulos para extraer características cuya altura varía de la de las superficies circundantes. | Fuente de la imagen: Luces de visión inteligente

A diferencia de los sistemas de imágenes 3D más complejos, la imagen estéreo fotométrica resultante suele ser una imagen de curvatura, no una imagen pura de altura o profundidad. Los datos de la imagen crean una representación en escala de grises de la geometría de la superficie de características discretas con variación de altura localizada. Aquellos que están más alejados en altura o profundidad de las superficies circundantes tendrán un valor de píxel de escala de grises más alto. Además de procesar imágenes de curvatura, las bibliotecas de visión avanzada pueden procesar imágenes direccionales a través de otros algoritmos (Figura 2). Los filtros incluyen textura, media, forma local, contraste local, gaussiano y albedo. Cada filtro resalta diferentes propiedades de la superficie y los usuarios pueden elegir el que mejor se adapte a su aplicación en particular.

Figura 2: La salida de imágenes estéreo fotométricas varía según la elección del algoritmo de procesamiento. Los mismos datos de entrada direccional se muestran utilizando los algoritmos de curvatura media (arriba a la izquierda), contraste local (arriba a la derecha), textura (abajo a la izquierda) y curvatura gaussiana (abajo a la derecha) de Matrox Design Assistant. Los algoritmos adicionales incluyen albedo y forma local. La elección correcta depende del objeto que se está fotografiando y del tipo de característica que se está detectando. | Fuente de la imagen: Luces de visión inteligente

El amplio uso de las imágenes estéreo fotométricas es resaltar características en una imagen en la que el objeto o la escena carecen de contenido en escala de grises, pero las características individuales tienen una variación geométrica en relación con la superficie. Un ejemplo es la generación de imágenes de neumáticos para su identificación basada en gráficos y caracteres de las paredes laterales. Con la información proporcionada por la representación de múltiples imágenes, la imagen en escala de grises se puede procesar utilizando herramientas típicas de visión artificial para realizar tareas de inspección como detección de defectos, OCR/OCV y medición. Las superficies con códigos o caracteres grabados o grabados también son buenas candidatas para la formación de imágenes estéreo fotométricas. De manera similar, muchos productos y componentes con características de bajo contraste pero estructura geométrica pueden beneficiarse de esta técnica de imagen (Figura 3).

Figura 3: Comparación lado a lado de la inspección de una pelota de golf utilizando una imagen en color estándar (izquierda) y una imagen estéreo fotométrica (derecha). Una grieta que es apenas detectable en medio del brillo de la textura de la superficie y los reflejos especulares de la imagen visual es fácilmente detectable en estéreo fotométrico. La superficie calculada en la imagen estéreo fotométrica elimina el ruido visual que dificulta la imagen en color, pero conserva los detalles de la superficie que son importantes para la inspección | Fuente de la imagen: Luces de visión inteligente

Las imágenes estéreo fotométricas se basan en gran medida en software y algoritmos que se utilizan para combinar y procesar distintas vistas de un objeto. La implementación de esta técnica computacional de múltiples imágenes comienza con los componentes de iluminación. Por lo general, con una sola cámara generalmente centrada sobre un objeto, se adquieren cuatro imágenes separadas. Cada uno tiene iluminación en un ángulo de reloj diferente alrededor del campo de visión, la mayoría de las veces a 0, 90, 180 y 270 grados (o dicho de manera más informal, en los cuatro lados del campo de visión rectangular o cuadrado de la cámara). El ángulo de iluminación de cada luz define las características que se resaltarán.

Los componentes de iluminación se seleccionan según el campo de visión requerido, y las diferentes aplicaciones pueden usar varias luces individuales o una sola fuente de luz con múltiples ángulos de iluminación controlables, por ejemplo, una luz anular con múltiples segmentos o zonas controlados individualmente (Figura 4). Para cada imagen adquirida, se utiliza una luz (o zona de iluminación) diferente. La secuenciación para la adquisición de múltiples imágenes se implementa fácilmente mediante un controlador de iluminación que interactúa con las luces, la cámara y el software de adquisición.

Figura 4: Un controlador de secuencia programable LED (izquierda) y un kit de luces multizona (derecha). Estas soluciones plug-and-play son fáciles de implementar, funcionan con hardware y software comunes y hacen que las imágenes computacionales sean accesibles para todos los niveles de usuarios. | Fuente de la imagen: Luces de visión inteligente

Otro ejemplo de iluminación combinada con imágenes computacionales implica la adquisición de imágenes en color de alta resolución. En una cámara de un solo sensor, las imágenes en color se producen fabricando un filtro de paso de banda ancha rojo, verde o azul sobre cada píxel individual. En la mayoría de las imágenes RGB, esta técnica se denomina filtrado de Bayer debido a la disposición de los filtros en los píxeles. Dado que cada píxel tiene solo uno de los tres colores, la imagen final a todo color debe reconstruirse a partir de píxeles adyacentes en un proceso llamado eliminación de Bayer (o eliminación de mosaicos). Debido a esta combinación de píxeles, la resolución espacial efectiva de la imagen resultante se reduce significativamente en comparación con la resolución real del sensor. Una solución eficaz y sencilla a la pérdida de resolución es la implementación de imágenes computacionales con iluminación multiespectral.

Un componente de iluminación que puede iluminar el campo de visión con múltiples colores (o multiespectrales) puede imitar el filtrado de banda ancha que se usa en una cámara a color en una cámara en escala de grises que no tiene filtros de nivel de píxel. En esta implementación de imágenes computacionales, las múltiples imágenes adquiridas están vinculadas a la iluminación de una pieza utilizando tres colores de longitud de onda amplia: rojo, verde y azul. Al igual que con el estéreo fotométrico, se puede utilizar un controlador de iluminación adecuado para simplificar aún más la adquisición. Las imágenes resultantes contienen representaciones de resolución completa del contenido rojo, verde y azul de la escena. En el software, las tres imágenes se combinan fácilmente en una imagen en color multicanal con una estructura según lo requiera la aplicación específica (Figura 5).

Figura 5: Tres imágenes capturadas por una cámara monocromática, cada una estroboscópica con luz roja, verde o azul, se combinan en una imagen a todo color, que conserva la resolución en comparación con una imagen en color de Bayer que pierde resolución en el proceso de interpolación de color. | Fuente de la imagen: Luces de visión inteligente

En algunos casos, no solo la resolución espacial sino también la fidelidad del color pueden mejorarse con el simple filtrado de Bayer. La consistencia de la fuente de iluminación puede introducir un nivel de confiabilidad y reproducción de color que podría exceder la capacidad de filtrado en el sensor en algunas aplicaciones. Esta técnica de imagen computacional brinda a los usuarios los beneficios de la imagen en color sin la pérdida de resolución asociada con las cámaras a color de Bayer y los filtros de color en el chip.

No solo para piezas u objetos estacionarios, las imágenes computacionales se pueden usar fácilmente en aplicaciones donde las piezas (o incluso los componentes de imágenes) están en movimiento. La técnica implica una especificación cuidadosa y, en algunos casos, un procesamiento adicional. Al igual que con todas las aplicaciones de imágenes que involucran partes móviles, para minimizar el desenfoque de movimiento, las métricas clave a considerar son la velocidad del movimiento y la duración de la exposición (o luz estroboscópica) de cada imagen. En las imágenes estéreo fotométricas, también se debe considerar la tasa de adquisición de múltiples imágenes y la cantidad de movimiento de la pieza en el campo de visión durante el tiempo de adquisición total.

Si la pieza se mueve con la suficiente lentitud y la velocidad de formación de imágenes es lo suficientemente alta, las múltiples imágenes obtenidas pueden estar lo suficientemente cerca unas de otras en términos de movimiento de la pieza para proporcionar una imagen combinada adecuada. Impulsado por el auge de los generadores de imágenes CMOS de alta velocidad y bajo costo, este proceso es más fácil que nunca. Si el movimiento dentro de la escena es demasiado grande, simplemente use una cámara CMOS más rápida.

Si la pieza se mueve demasiado de una imagen a otra y una cámara más rápida no es una opción, podría ser necesario preprocesar las imágenes para alinearlas digitalmente. Esto implica comparar las características adecuadas en cada imagen con la primera imagen tomada y luego aplicar las traducciones apropiadas para hacer coincidir esas características para el cálculo posterior de múltiples imágenes (Figura 6).

Figura 6: Al hacer zoom en las últimas líneas del texto en color, se revela la degradación de la resolución de la cámara a color a nivel de píxel con pérdida de definición y color cuadriculado. El color de la imagen computacional sigue siendo fiel, la resolución permanece estable y la uniformidad del fondo resulta de la mayor sensibilidad y el menor ruido de la cámara monocromática. | Fuente de la imagen: Luces de visión inteligente

Las herramientas de software pueden realinear un objeto hasta el píxel en varios fotogramas capturados e incluso corregir la variación de rotación. Las herramientas estándar en la mayoría de las bibliotecas de visión artificial pueden corregir el movimiento para que estas técnicas de imágenes computacionales sean útiles, incluso si una parte no está quieta o registrada mientras se recopila la secuencia.

Otra técnica consiste en realizar un seguimiento externo del movimiento de una pieza entre cada imagen (por ejemplo, en una cinta transportadora) y luego aplicar directamente una transformación basada en la cantidad conocida de desplazamiento físico de las imágenes. En todos los casos, por supuesto, es obligatorio que durante la adquisición de imágenes, la pieza permanezca en el campo de visión de la cámara. Este método es particularmente adecuado para objetos que se mueven en una cinta transportadora codificada e imágenes capturadas con cámaras de exploración lineal.

Aunque pueda parecer una solución más compleja, las imágenes computacionales en realidad pueden simplificar ciertos problemas que son difíciles de resolver con imágenes visuales estándar. Las imágenes computacionales, particularmente las que permiten los componentes y controladores de iluminación actuales, se han convertido en una técnica de imágenes valiosa y fácil de implementar a la que se puede acceder fácilmente para una amplia gama de aplicaciones de visión artificial.

steve kinney , director de capacitación, cumplimiento y soluciones técnicas, Smart Vision Lights. Para obtener más información, visite www.SmartVisionLights.com.

Figura 1: Figura 2: Figura 3: Figura 4: Figura 5: Figura 6: Steve Kinney
COMPARTIR