VisualGuide ist die Funktion, die QuickStaff einzigartig macht. Mitarbeitende richten die Kamera auf das Objekt, sehen in unter 5 Sekunden eine Schritt-für-Schritt-Anleitung in der Wunschsprache. Über 30 Sprachen. Mit AR-Overlays und Sprachausgabe. Auf jedem modernen Smartphone.
Hier sehen Sie, wie das AR-Overlay auf dem Smartphone unserer Mitarbeitenden aussieht. Die App erkennt das Objekt, hebt es hervor und zeigt die Anleitung in der gewählten Wunschsprache.
Wie Google Lens, aber kontextspezifisch für die jeweilige Schicht. Gepaart mit der Wissensbasis des Hotel-, Lager- oder Eventkunden.
Live-Kamera-View oder Foto-Upload. Funktioniert offline, da das KI-Modell auf dem Gerät läuft (iOS ARKit / Android ARCore).
Vision-Language-Model erkennt Objekte, Räume, Maschinen. MiniCPM-V, Gemma 3n und Qwen3.5-VL als Basismodelle.
Verknüpfung mit Schicht-Briefing und Branchen-Wissensbasis. Cloud Vector-DB plus RAG-Pipeline für präzise Anleitungen.
AR-Overlay über die Kamera, Schritt-für-Schritt-Animation, Sprachausgabe in der Wunschsprache. Live, in Echtzeit.
VisualGuide wird je Branche und je Aufgabe trainiert. So sehen die ersten Use Cases im Live-Betrieb aus.
Mitarbeitende richten Kamera auf den Tisch. AR-Overlay zeigt 3D-Animation des Bankett-Setups: welcher Teller wo, welches Besteck, welches Glas. Mit Sprachausgabe in Ukrainisch oder Polnisch.
Mitarbeitende fotografieren ein Reinigungsmittel. App erkennt Produkt, gibt auf Polnisch Verdünnung, Einwirkzeit, Schutzhandschuhe-Pflicht aus. Warnt bei Marmor-Oberflächen vor falschem Produkt.
Mitarbeitende richten Kamera auf die Bedienkonsole. App identifiziert Linde-MT15-Modell, zeigt Bedienelemente per AR-Overlay mit arabischer Beschriftung. Sicherheits-Warnungen visuell und akustisch.
Mitarbeitende fotografieren Visitor-Management-Software. App führt durch den Workflow: Besucher anmelden, Ausweis scannen, Badge ausgeben — auf Georgisch, mit deutschen Schlüsselbegriffen sichtbar.
Mitarbeitende sprechen in ihre Muttersprache: Frag den Gast, ob er ein anderes Tischtuch möchte. Die App übersetzt live ins Deutsche und ermöglicht eine Whisper-Wiedergabe.
Nach Abschluss einer Aufgabe wird ein Foto gemacht. Die App vergleicht mit dem Soll-Zustand und gibt sofort Feedback: 95 Prozent korrekt. Verschiebe das Wasserglas leicht nach rechts.
Kamera-Frames werden auf dem Smartphone der Mitarbeitenden verarbeitet. Standardmäßig keine Cloud-Übertragung. DSGVO-konform.
Wo Cloud-Verarbeitung nötig ist, läuft sie in deutschen Rechenzentren (Düsseldorf-Frankfurt). Keine US-Cloud, keine Drittland-Transfers.
VisualGuide erkennt Objekte, Maschinen, Räume — niemals Personen. Keine Standort-Erfassung außerhalb der aktiven Schicht-Zeit.
Privacy-by-Design, Datenschutz-Folgenabschätzung (DPIA), jährliche Pen-Tests, Cyber-Versicherung. Sicherheits-Audit nach BSI-Grundschutz vor Live-Schaltung.
Wir kommen mit einem iPhone und drei Use Cases zu Ihnen. 30 Minuten. Sie sehen, wie VisualGuide funktioniert — in Ihren eigenen Räumen, mit Ihren eigenen Geräten.