lunes, 24 de febrero de 2025

Reconocimiento de objetos con Raspberry Pi y Yolo

 Nombre de la actividad:  Reconocimiento de objetos usando Inteligencia Artificial y Raspberry Pi 5

Módulo/Asignatura/Curso:  Administración de Sistemas Operativos

Sesiones de trabajo estimadas: 10

Dificultad ( baja, media, alta): alta


Profesor/a: Rafael Santos Fernández

Grupo: 2º ASIR

Fecha: 24/02/2025


En esta ocasión, nuestros alumnos y alumnas de 2R consiguen iniciar otro proyecto de Inteligencia Artificial haciendo uso de una Raspberry Pi 5.

Este proyecto hace uso de algoritmos con Inteligencia Artificial para el reconocimiento de objetos usando Yolo. En este caso es utiliza un modelo preentrenado por lo que no debemos entrenarla con los objetos a reconocer.

        Partimos de una instalación de las librerías de Python necesarias para manejar la cámara como en el proyecto de reconocimiento de rostros (se pueden seguir los pasos en el artículo correspondiente https://lainteligenciaartificialentumano.blogspot.com/2025/02/nuestros-alumnos-y-alumnas-de-segundo.html ) por lo que ya tenemos toda la infraestructura necesaria para su ejecución. Solo tenemos que descargarnos los tres archivos necesarios:

yolov4.cfg → Configuración del modelo YOLOv4.

coco.names → Lista de clases (80 categorías de COCO).

yolov4.weights → Pesos preentrenados del modelo.

Podemos descargarlas ejecutando (o buscando los enlaces directamente desde google): wget https://github.com/AlexeyAB/darknet/raw/master/cfg/yolov4.cfg wget https://github.com/pjreddie/darknet/raw/master/data/coco.names wget https://github.com/AlexeyAB/darknet/releases/download/darknet_yolo_v4_pre/yolov4.weights Si no sois capaces de descargarlos desde estos enlaces, al final del articulo os dejamos los enlaces desde drive.

    Y el código en python que ejecuta yolo con opencv

deteccion.py

    Una vez descargados los guardamos en la misma carpeta. Nosotros la llamaremos yolo.



El código deteccion.py sólo funciona con las librerias de picam2, si tienes otro modelo de cámara tendrás que adaptar la parte de iniciación de la cámara.
Por último, ejecutamos deteccion.py y se nos abrirá la ventana de la cámara con la detección de objetos.


Este es el video con el reconocimiento de objetos probado en clase:





miércoles, 19 de febrero de 2025

Presentación de nuestro proyecto a profesores visitantes de Francia

Durante la semana cultural hemos recibido en nuestro centro la visita de dos compañeros que vienen de un instituto de enseñanza secundaria de Francia.

Aprovechando esta visita, organizamos unos talleres con Raspberry Pi, en los que los alumnos y alumnos han enseñando a nuestros profesores visitantes nuestras Raspberry Pi, cómo se instala un sistema operativo en ellas y cómo se accede en remoto por VNC para su administración desde la red.






Nombre de la actividad:  Création d’un portrait chinois de la ville de Cáceres

Módulo/Asignatura/Curso:   Segunda Lengua Extranjera, Francés.

Sesiones de trabajo estimadas: 4

Dificultad ( baja, media, alta): media


Profesor/a: María José Granados Trenado

Grupo: 4º ESO

Fecha: 19/02/2025


    Se trata de una actividad creativo-literaria enmarcada dentro de un proyecto con alumnos de la Isla de la Reunión, cuyo título es Greguerízate, y a través del cual estamos trabajando diferentes recursos literario y artísticos, en esta ocasión se ha trabajado el retrato chino.

    Desde la IA se ha propuesto a los alumnos un modelo a seguir, en el cuál se han elegido los items a trabajar a posteriori ilustrados con una imagen que los integre.

    En el siguiente enlace tenemos una conversación mantenida con chatgpt, así como el resultado de la imagen generada. Esperamos que os guste.

https://chatgpt.com/share/673c55de-6678-8013-b785-defae3d33807



    Se trata de una actividad creativo-literaria  enmarcada dentro de un proyecto con alumnos de la Isla de la Reunión, cuyo título es Greguerízate y a través del cual estamos trabajando diferentes recursos literarios y artísticos, en esta ocasión se ha trabajado el retrato chino. Desde la IA se ha propuesto a los alumnos un modelo a seguir, en el cual se han elegido los ítems a trabajar para a posteriori ilustrarlos con una imagen que los integre.


miércoles, 12 de febrero de 2025

CHAT gpt te ayuda a elaborar tu dieta saludable.

Nombre de la actividad: Alimentación y hábitos saludables.

Módulo/Asignatura/Curso: Bioglogía

Sesiones de trabajo estimadas: 3

Dificultad ( baja, media, alta): baja

Profesor/a: María Inmaculada Gil Alonso

Grupo: 3º Diversificación

Fecha: 22/01/2025

Descripción de la actividad

En la asignatura de Biología, se ha trabajado con los alumnos de 3ºDiver sobre la importancia de adquirir hábitos de vida saludables, tanto en su alimentación como en la práctica de ejercicio físico. 

Para poner en práctica lo aprendido, se les propone que elaboren su propia dieta saludable para una semana. Para ello primero deben investigar sobre qué son los hábitos de vida saludable usando el Chat Gpt, haciéndole preguntas del tipo: ¿En qué consiste una alimentación saludable?¿Cómo puedo llevar una dieta saludable? ¿Es importante el ejercicio físico para una dieta saludable? y preparar una infografía en canva en la que se den las claves para llevar una dieta saludable. 

Y para practicar lo aprendido, el siguiente paso sería elaborar su propia dieta saludable para una semana completa, haciendo uso también del Chat Gpt, preguntándole por ejemplo: “Elabora Una dieta saludable para un adolescente que incluya también ejercicio físico” 

El objetivo de esta actividad es promover hábitos de vida saludable tanto en la alimentación como en su actividad física, utilizando la herramienta del Chat Gpt con criterio para obtener una información útil que puedan aplicar en su día a día.   





martes, 11 de febrero de 2025

Nuestros alumnos y alumnas de segundo curso de Administración de Sistemas Informáticos en Red realizan un proyecto de reconocimiento facial usando una Raspberry Pi y programas en python que hacen uso algoritmos con Inteligencia Artificial.

Nombre de la actividad:  Reconocimiento facial usando Inteligencia Artificial y Raspberry Pi 5

Módulo/Asignatura/Curso:  Servicios en Red e Internet

Sesiones de trabajo estimadas: 10

Dificultad ( baja, media, alta): alta


Profesor/a: Íñigo de la Fuente Ubanell

Grupo: 2º ASIR

Fecha: 22/01/2025


En esta ocasión, nuestros alumnos y alumnas de 2R realizan uno de los proyectos sobre los que surgió la idea de nuestro proyecto CITE-STEAM, que era el conseguir iniciar proyectos de Inteligencia Artificial haciendo uso de una Raspberry Pi 5.

Este proyecto hace uso de algoritmos con Inteligencia Artificial para el reconocimiento de rostros, por lo que durante el proceso hay que entrenar el modelo de Inteligencia Artificial con los rostros que se desea reconocer, en este caso el alumnado de la clase.

Los pasos que se han seguido han sido los siguientes:

  1. Actualizar sistema

        apt update

apt full-upgrade




  1. Después conectar las Raspberry Cam v2 al puerto correspondiente de la Raspberry Pi.

Se debe probar el funcionamiento de la cámara con unos sencillos comandos desde terminal:

  • libcamera-hello –list-camera muestra las cámaras detectadas.

  • libcamera-hello inicia captura durante unos 5 segundos para probar que funciona.


Los siguientes pasos son la descarga e instalación de todas las librerías necesarias para la realización del proyecto.

Durante la instalación de las librerías necesarias, nos saldrán mensajes de error  externally-managed-environment. Esto es debido a que el entorno de Python está manejado externamente por un administrador de paquetes, lo que impide el uso directo de pip o pip3 para instalaciones en el sistema y así evitar conflictos o problemas. Podemos evitar esto añadiendo la siguiente línea en pip.conf.


fichero /etc/pip.conf

añadir línea break-system_packages=true


Otra solución es crear un entorno virtual de python, e instalar todo en dicho entorno para no manipular la parte real y no dañar el sistema al instalar ciertos tipos de librerías. En esta ocasión optamos por instalarlas directamente en el sistema, ya que no nos dará ningún tipo de problemas en la máquina real.


  1. Instalar librerías requeridas


Para procesamiento de imágenes: reconocimiento de rostros, dibujar rectángulos en las caras detectadas, guardar imágenes, etc.

apt-get install python3-opencv


Interfaz gráfica de usuario e instalación de dependencias backend

apt-get install libqt5gui5 libqt5test5 python3-pyqt5 libatlas-base-dev libhdf5-dev libhdf5-serial-dev -y



OpenCV con instalación de módulos de contribución

pip3 install opencv-contrib-python==4.5.5.62

Saldrá una advertencia que nos indicará que ejecutar con permisos de root puede dar problemas en el sistema, recomendando crear un entorno virtual para estas operativas. Lo ignoramos, porque no nos dará problemas.


Picamera2, para interactuar con el módulo de cámara de Raspberry Pi

apt-get install python3-libcamera python3-kms++ python3-pyqt5 libatlas-base-dev


CMake: un compilador para proyectos, para asegurar la compatibilidad entre sistemas, por si hiciera falta.

apt install cmake


Dlib Library : proporciona las herramientas para la detección facial y generación de los encodings de los rostros que queremos reconocer. Hay que tener paciencia porque tardará un buen rato.

pip3 install dlib



Face Recognition Library : para detectar y reconocer rostros en imágenes y  videos. Esta librería es la que hace uso de algoritmos con inteligencia artificial para el reconocimiento de las personas con las que se haya entrenado el modelo.

pip3 install face_recognition


Esta instalación puede dar fallos. Hay que insistir, ya que los fallos son porque se corta la bajada, no termina alguna parte. Si estás usando algún repetidor wifi te puede fallar.



Xml file : este fichero es necesario porque es el clasificador pre-entrenado para la detección de rostros, y es el que debemos entrenar con las imágenes de los rostros de las personas que queramos identificar. Se descarga y guarda en la misma ruta en la que tengamos los programas en python. 

https://github.com/opencv/opencv/blob/master/data/haarcascades/haarcascade_frontalface_default.xml

Si esta descarga falla, al final del artículo os dejamos enlace para que lo podáis descargar de nuestro drive.


Para probar el funcionamiento:

Creamos tres programas en python guardados en la misma carpeta junto con el xml file  con el código de los ficheros necesarios, y los ejecutamos en el siguiente orden:



  1. face_shot.py para capturar los rostros de las personas que queremos reconocer. Se deben sacar más de 50 fotos de cada persona a reconocer, en diferentes direcciones: mirando de frente, de lado, para arriba, para abajo. Creará una carpeta para cada persona que se quiera reconocer. Para ello, antes de ejecutarlo, se modifica el código de este programa, poniendo el nombre de la persona en la variable correspondiente.



  1. train_model.py. Una vez que tengamos todas las fotos de todas las personas toca entrenar el modelo. Hay que ejecutar este programa para ello. Dependiendo del  número de personas y de fotos tomadas tardará más o menos tiempo. Aquí es donde se nota que el equipo es una Raspberry, ya que se potencia de proceso es limitada, se calienta bastante y en nuestro caso tardó aproximadamente 30 minutos en entrenar el modelo con 18 alumnos y alumnas con unas 180 fotos por persona. En una prueba posterior con menos fotos tardó algo menos de la mitad, y el reconocimiento de las personas fue prácticamente igual.



  1. face_rec.py. Es el programa que detecta los rostros en tiempo real y nos indica si los rostros encontrados en el video los conoce o no. El resultado es bastante bueno, aunque no ideal, ya que pudimos comprobar que rostros con gafas los confundía, orejas, incluso algunos pliegues de las ropas podía reconocerlos como caras aunque desconocidas. Esto se debe a que este modelo realiza una vectorización de las caras, por lo que en una imagen pueden reconocerse como rostros algunos pliegues si estos son parecidos a dichas representaciones vectoriales de rostros.


Estos son los videos con el reconocimiento de los alumnos de clase:






Los enlaces a los ficheros necesarios para la realización del proyecto están en los siguientes enlaces:

Captura de imágenes

XML para entrenar modelo

Entrenador del modelo

Reconocimiento de rostros en vivo



Nuestros alumnos y alumnas realizan una app para aprender los INCOTERMS

 Nombre de la actividad:  Creación de app con Thunkable

Módulo/Asignatura/Curso:  Inglés oral y escrito en el comercio internacional

Sesiones de trabajo estimadas: 4

Dificultad ( baja, media, alta): media

Profesor/a: Mª Virginia Andújar López

Grupo: Certificado de Profesionalidad de Compraventa y Márketing internacional

Fecha: 02/12/2024

Texto a publicar en el blog:

         Los alumnos y alumnas se registran por primera vez en Thunkable. Esta es una plataforma gratuita que permite a los usuarios crear sus propias app sin tener conocimientos de programación.

        La forma de trabajar es igual a como se hace con Scratch, con bloques. En esta ocasión, al ser nuestra primera actividad con Thunkable, hemos realizado un trabajo sencillo que consistía en crear una primera pantalla de inicio, en la que estaban los once INCONTERMS.

        A continuación, creaban una pantalla nueva por cada INCOTERM. La pantalla debía contener la definición del término, al menos una foto o vídeo y un botón de “Back” con la orden de volver a la pantalla de Inicio.

        Una vez creadas todas las pantallas, seleccionaban de uno en uno cada INCOTERM y le asignaban una orden. En este caso, que al hacer clic te llevase a la pantalla del INCOTERM correspondiente.



        Conocer y manejar esta plataforma es muy útil porque pueden utilizarla como herramienta de márketing. Las aplicaciones son infinitas y el uso es sencillo. Para órdenes más avanzadas, la propia plataforma tienes tutoriales online, lo que les abre las puertas a su creatividad e iniciativa a la hora de crear app propias.

        En este caso la actividad queda aquí, pero saben que podrían enviar la app generada a Google Play y una vez aprobada se podría descargar en cualquier móvil.