Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
II. METODOLOGIA
Hoy en día, la visión artificial permite identificar personas, lugares y objetos en
imágenes con una precisión equivalente o superior a la capacidad humana y con
mayor velocidad y eficiencia. Los métodos que utilizan Deep Learning han obtenido
2
una performance superior a otros enfoques en el campo de reconocimiento de
imágenes.
Raspbian.
2
Ubuntu MATE
Kali Linux
Arch Linux ARM
CentOS
OpenELEC y OSMC
Elastix
Webcam Genius “Facecam 2020”
OpenCV:
OpenCV es una librería inicialmente creada para C/C++ pero popularizada
a Python. La librería nos permite manipular imágenes para aplicar técnicas
de Visión Computacional como cambiar el espacio colores, aplicar filtros
gaussianos, crear máscaras, detectar bordes, detectar rostros, etc.
OpenCV se basa en la representación de una imagen como una matriz de
pixeles. OpenCV usa el sistema de colores BGR en el que podemos
describir cada pixel como la tupla (b, g, r) dónde definimos la intensidad de
color para cada canal, siendo b: azul, g: verde y r: rojo con valores de 0 a
255.
3. Experimentaciones:
Esta es la primera prueba del sistema donde podemos observar que no existe
errores de compilación y se ejecuta con normalidad el proceso
Reconocimiento de persona
Reconocimiento de animales
2
Medios de Transporte
Objetos varios
Estos son ejemplos de los distintos objetos que el sistema reconocio en las diferentes
pruebas que se realizo , se pudo observar que la deteccion de objetos tiene una
presion de 80 % con las caracteristicas para ser detectdo es que la imagen o el objeto
este relativamente cerca y que se encuentre en ul lugar con iluminacion.
III. RECOMENDACIONES
Se llego a poder implementar el sistema pero existe puntos a ser mejorados como
el tiempo de procesamiento de los FPS ya que esto dificulta una detección mas
rápida , por otra parte el sistema es excelente en la detección de personas
teniendo un rango detección de 15 a 20 segundos en promedio de detección a
comparación de otros objetos que los detecta pero tiene cierta dificultad en el
procesamiento de datos .
IV. CONCLUSIONES
Una de las diferencias mas significativas entre los PC´s que usamos para nuestras
tareas básicas de estudio o trabajo en relación con el Raspberry pi es q su
sistema operativo al contrario de usar Windows o Apple OS esta pequeña placa
usa una distribución Linux con base en Debian , el cual es de código abierto lo que
nos permite hacer cambios en el código fuente del sistema.
ANEXO
PASO 1.
Instalar el sistema operativo Raspberry Pi
PASO 2.
Actualiza la Raspberry Pi Raspberry Pi necesita actualizarse completamente.
Abra un terminal y emita:
2
Dependiendo de cuánto tiempo haya pasado desde que actualizó su Pi, la
actualización podría durar entre un minuto y una hora.
PASO 3
Instalar TensorFlow A continuación, instalaremos TensorFlow. En el directorio /
home / pi, cree una carpeta llamada 'tf', que se usará para guardar todos los
archivos de instalación de TensorFlow y Protobuf, y cd en ella:
Este proceso toma aún más tiempo, llegando a los 107 minutos en mi Pi. Según otras
guías que he visto, este comando puede salir con errores, pero Protobuf todavía
funcionará. Si ves errores, puedes ignorarlos por ahora. Ahora que está construido,
instálalo emitiendo:
Finalmente, emita:
Ahora Protobuf está instalado en la Pi. Verifique que esté instalado correctamente
emitiendo el siguiente comando y asegurándose de que publique el texto de ayuda
predeterminado.
PASO 6
Configure la estructura del directorio TensorFlow y la variable
PYTHONPATH. Ahora que hemos instalado todos los paquetes, necesitamos
configurar el directorio TensorFlow. Vuelva a su directorio de inicio, luego cree un
directorio llamado "tensorflow1" y cd en él.
2
Luego, guarde y salga del archivo. Esto hace que se llame al comando "exportar
PYTHONPATH" cada vez que abra un nuevo terminal, por lo que la variable
PYTHONPATH siempre se configurará de manera apropiada. Cierre y vuelva a abrir el
terminal.
Ahora, necesitamos usar Protoc para compilar los archivos del Buffer de Protocolo
(.proto) que usa la API de Detección de Objetos. Los archivos .proto se encuentran en /
research / object_detection / protos, pero necesitamos ejecutar el comando desde el
directorio / research
2
un procesador débil, por lo que necesitamos usar un modelo que requiera menos poder de
procesamiento. Descargue el modelo SSDLite-MobileNet y desempaquételo emitiendo:
PASO 7
Detecta objetos Bien, ahora todo está configurado para realizar la detección de
objetos en la Pi! La secuencia de comandos de Python en este repositorio,
Object_detection_picamera.py, detecta objetos en feeds en vivo desde una cámara
web Picamera o USB. Básicamente, la secuencia de comandos establece rutas al
modelo y al mapa de etiquetas, carga el modelo en la memoria, inicializa la Picamera y
luego comienza a realizar la detección de objetos en cada fotograma de video desde la
Picamera.
Wget
https://raw.githubusercontent.com/EdjeElectronics/TensorFlow-Object-Detection-on-the-
Raspberry-Pi/master/Object_detection_picamera.py
La secuencia de comandos por defecto utiliza un Picamera adjunto. Si tienes una cámara web
PASO 8
Ejecución Como ultimo paso procedemos con la compiacion y ejecución del sistema
para lo cual recurrimos al siguiente comando