Zur Navigation springen Zum Inhalt springen

Physical Computing - Was ist das?

Bei Physical Computing handelt es sich um ein interdisziplinäres, studienfachübergreifendes Wahlpflichtfach, bei dem auch Studierende unterschiedlicher Studiengänge gemeinsam im Team am selben Projekt arbeiten. Die TeilnehmerInnen kommen aus den Bachelorstudiengängen Medieninformatik, Industrie-4.0-Informatik, Elektro- und Informationstechnik, sowie Medienproduktion und -technik.

Nach kurzen Einführungen durch die Dozenten in Arduino-/Atmel-/ESP32-Mikrocontroller, RaspberryPi, Mindstorms- bzw. Aldebaran-Roboter-Programmierung sowie 3D-Design mit Blender, 3D-Druck und Lasercutting planen und entwickeln die Studierenden eigene Projekte, meist in Zweier- oder Dreier-Teams.

Während die Dozenten in den ersten Jahren viel thematische Freiheit ließen (mindestens zwei der Technologien sollen in jedem Projekt verwendet werden), wurde die Veranstaltung seit dem Sommersemester 2018 jeweils unter ein Motto gestellt:

  • MQTT-Aktorik und Sensorik mit gemeinsamer Broker-Visualisierung (SS 2018) oder
  • Ambient Assisted Living/Smart Senior (SS 2019).


Aus der Anfangszeit der Veranstaltung gibt es auch ein Video auf der Hochschulwebseite.

Erfolgreich abgeschlossene Projekte

  • Sortieranlage (nach Farbe, Material, Gewicht/Größe) auf Basis von Lego Mindstorms, Arduino, Farbsensor, Drucksensor, Servomotoren: Martin Blodig (EI4), Julia Richthammer (MT5)
  • Mindstorms EV3 Mars Parcours: Robert Furche (AI), Tamara Graf (AI), Nils Steinlein (AI)
  • Gruselkopf auf Basis von 3D-Druck, Arduino, Ultraschallsensor, Lautsprecher, Motorsteuerung: Adelheid Gonschorek (EI3), Franziska Heldmann (AI3), Mandina Amrhein (AI6)
  • HD-Live-Kamerabild per WLAN-Streaming von mobilem Fahrzeug mit Ultraschall-Sensor und Fernsteuerung: Andreas Nießl (AI)
  • Ferngesteuerte Ameise “Ardonio” (Basis: Arduino, 12 Servomotoren): Stefan Stiegler (EI), Raphael Kremser (EI), Norbert Rüppel (EI)
  • Tweeting Bird House (Basis: RaspberryPi, Infrarotkamera, WLAN, Web-Frontend mit Twitter, Holz-Lasercut): Patrick Schießl (AI6), Klaus Mick (EI), Benjamin Weigl (AI6)
  • Steuerung eines Roboters/Modellautos mittels Hand-/Armgesten (Basis: Arduino, Kinect): Michael Walz (EI 6), Sebastian Balzer (EI 6), Florian Wick (MT 4)
  • Socken-Sortieranlage (Basis: Arduino, RFID-Tags, RFID-Leser, Roboterarm-Bausatz): Sebastian Zeh (EI 6), Niels Thiele (EI 6), Damian Uczulko (EI 6)
  • Fahrradsicherheitssystem: Fahrtrichtungsanzeiger (Kopfbewegung/Gyroskop, Signaltongeber) sowie automatisches Bremslicht (Beschleunigungssensor). Basis: Arduino, Bluetooth, Fahrradhelm, 3D-Druck (Gehäuse): Philipp Hess (EI), Julian Arnold (EI), Jörg Pichl (EI)
  • Autononmous RFID Car (Basis: Arduino, RFID, Ultraschallsensor, Bluetooth, Magnetometer, Mindstorms EV3): Christian Binkowski (EI), Oliver Hoffmann (EI), Katrin Lutter (AI)
  • Car Pi Automotive Entertainment System Model (Basis: Raspberry Pi, Arduino Yún, Sensorik: Druck-, Temperatur-, Abstandssensor, Servomotor): Stefan Pölloth (AI6), Adrian Saalfrank (AI6)
  • CocktailMaster – Automatischer Barmixer (Basis: Android App, Sprachkommandos, Arduino Uno, Arduino Yún, Alkoholsensor, 6 Pumpen, rezeptbasierte Steuerung, OSC): Mirjam Donhauser (AI5), Cornelia Ott (AI5), Theresa Schuster (AI5)
  • Nao on Stage (Basis Aldebaran Nao Roboter, Python, Sensorik): Kamera, Berührung, Ultraschall, Infrarot, gescriptete Sprachinteraktion (Chat) inkl. Spracherkennung für Ratespiel, Nachtrommeln von durch Menschen vorgeklatschten Rhythmen uvm.: Michael Schormüller (EI), Christian Meinke (EI)
  • KiNao – Imitierung der Bewegung eines Menschen durch einen humanoiden Roboter mit Hilfe einer Microsoft Kinect V2 (Basis: Aldebaran Nao, Kinect V2, RaspberryPi, OpenCV Objekterkennung, Python, .NET C#): Simon Ott (EI7), Fabian Schreier (EI7) und Sebastian Wieland (EI7)
  • LED Cube (Basis: Arduino, 125 Leuchtdioden dreidimensional angeordnet gelötet, selbst entworfenes Platinenlayout mit Schieberegistern etc.): Bachfischer Florian (EI6), Biehler Martin (EI4)
  • Bau einer professionellen CNC-Fräse (Basis: Arduino, Raspberry Pi, 7-Zoll-Touch Screen, Mono, G-Code-Interpreter, Nema 23 Stepper Motor): Benjamin Cakmak (EI4), Christian Bauer (EI4)
  • Grillmeister – instrumentierter Grill mit Biereinspritzung (Basis: Raspberry Pi, Arduino, Grill, Hochtemperatursensor, Fischzange, Ventilator, Pumpe, Web-Frontend mit jQuery, Bootstrap, Facebook-SDK): Steffen Bauderer (EI), Martin Obermeier (EI), Tobias Nickl (AI6), Jonas Herzog (EI)
  • Low Cost Oszilloskop (Basis: STM IDISCOVERY mit ARM Cortex M4, 4-Zoll-Farbdisplay mit DSI, 3D-Druck Gehäuse, Messhandschuh): Alexander Lambert (EI4), Philipp Wiesner (EI4), Stefan Bäumler (EI4)
  • Intelligenter Biergarten – Bluetooth-basiertes Ortungssystem mittels Trilateration (Basis: 3 Raspberry Pi, Temperatursensor, Drucksensor, Arduino Mini Pro, Beschleunigungssensor, Platinenlayouterstellung mit Eagle, 3D-Druck Gehäuse): Tobias Lolacher (EI6), Matthias Meier (EI6)
  • MOBSpot – Automatische Kameranachführung zur Drohnen/Objektverfolgung (Basis: 3D-Druck, Raspberry Pi mit PiCam, Servomotor, OpenCV): Matthias Janko (EI4), Benjamin Nickl (EI4), Oliver Stefan Schneider (EI4)
  • Luminoglass – Funkvernetzte Cocktailgläser mit RGB-LEDs in einem 3D-gedruckten Sockel, Gestenerkennung, Zentrale Steuerung und Überwachung mittels einer GUI auf Basis von Visual C#, die Gläser können damit z.B. im Takt der Musik leuchten, aber auch individuell oder paarweise interagieren, “crowd-Effekt”: Das Trinkglas wird zum sozialen Medium mit Blickkontakt. Lena Rybak (EI6), Maximilian Müller (AI6), Nels Appold (AI6)
  • Smart Fridge – Mit Sensorik (Temperatur, Luftqualität/Faulgase, Luftfeuchtigkeit, Gewicht von Produkten) instrumentierter Kühlschrank (Modell), Barcode-Erkennung, Verwaltung der Mindesthaltbarkeit. Johannes Wiesneth (AI6), Thomas Forster (EI6)
  • Smart Mirror – Auf TV-Bildschirm basierender Großflächenspiegel mit Raspberry Pi, Kamera, Gestenerkennung, Erkennung von Medikamentenpackungen, Verknüpfung mit Kalender, email, Wettervorhersage. Benedikt Martens (EI6), Dominik Bittner (EI6)
  • Modern Gladiators – Drei autonome Fahrzeuge bewegen sich in einem Spielfeld und weichen virtuellen Schüssen (Android-App) aus. Technologien: 3D-Druck, Ultraschallsensoren, LED-Leisten, Summer, Elektromotoren, Python, Webcam, C++-Programm mit OpenCV zur Positions-Erkennung, Beschleunigungssensoren, Raspberry Pi A+, WLAN, Android-App zur Steuerung) Michael Grehl (EI6), Thomas Pilhöfer (EI6), Alexander Wagner (EI6). Dieses Projekt lief über zwei Semester
  • Mühle 3D – Mühle-Spiel, bei dem sich die Spielsteine selbst bewegen. Technologien: Elektromagnete, Motoren, Raspberry Pi, C++, Holz-Lasercut: Florian Bauer (EI6)
  • Scroll-Ring – Fingerring mit kapazitivem Sensor, der es ermöglicht, ohne die Hände von der Tastatur zu nehmen, Bildschirminhalte zu Scrollen oder andere kontinuierliche Werte wie Lautstärke oder Helligkeit einzustellen. Technologien: Arduino Yún, MQTT. Thomas Altmann (AI6), Christian Ochsenkühn (AI6)
  • Wild Robotics Dialog-Szenario mit dem humanoiden Roboter Pepper von Aldebaran bzw. Softbank: Tim Heidner (MT3) und Annika Pischel (MT3), s. Beispiel regionales Presseecho auf Seite 64.
  • Flipper Box (Steuerung, Holz-Lasercut, Unreal Game Engine): Elias Peter (MT), Florian Schmidbauer (MT)
  • Rubik’s Cube Solver: ein realer Rubik-Würfel (Standardgröße) in beliebiger Ausgangskonstellation wird mit selbst entwickelter Mechanik gelöst. Technologien: Holz-Lasercut Raspberry Pi, Motoren, PiCam, Python. Martin Kleber (AI6), Robert Kraus (AI6), Ulrich Peschke (AI6)

Gemeinsames Thema: ESP32- und MQTT-basierte Sensorik und Aktorik. Jeder Sensor liefert 1–3 kontinuierliche numerische Werte, die über eine zentrale Broker-Visualisierung mit Großflächen-Touchscreen dynamisch zu beliebigen Aktoren geroutet werden können, die diese Werte in Aktionen oder Visualisierungen umsetzen. Vorführung (Projekte-deadline) am Tag der offenen Tür der Hochschule, 8. Juni 2018

  • Franziska Fenzl (AI6), Dominik Flierl (AI6): MQTT Zentrale Broker-Visualisierung in JavaScript und API für C++/ESP32- und JavaScript-Clients
  • Christian Bayer (AI6): Sensor: selbst entwickeltes Arkade-Board, Aktor: selbst entwickeltes Spiel (auf Basis von PixiJS)
  • Florian Grünauer (AI6): Sensor: Pendel mit Ultraschallsensor und Accelerometer, Aktor: Pinocchio mit Druckluft-gesteuerter, variabler Holznase
  • Moritz Prüfling (AI6): Sensor: Leap Motion-Handsteuerung, Aktor: 32x32-LED-Matrix
  • Samuel Flach (EI6) und Philip Jahn (EI6): Sensoren: 2-Achsen-Neigungssteuerung per Hand, Aktor: lenkbares Fahrzeug (Bausatz) mit eigener Steuerung, Plexiglas-Lasercut (Gehäuse Handsensor)
  • Simon Kunz (EI6): Sensor 1: Handschrifterkennung (Ziffern) mit neuronalem Netz, Sensor 2: Ball-Tracking per Raspberry Pi mit Kamera, Aktor 1: Visualisierung mit selbst gebautem LED-Streifen
  • weitere Sensoren und Aktoren von den beteiligten Professoren (Pustesensor, Beschleunigungssensoren, etc.)
Nach oben