ifun.de — Apple News seit 2001. 39 294 Artikel

Für iPhone und iPad

Sprechen per Kopfbewegung: Freie App für Beatmungs-Patienten

Artikel auf Mastodon teilen.
18 Kommentare 18

Die Vocable-App für iPhone und iPad erkennt Kopfbewegungen und Blinzeln und nutzt diese Gesten zum Aktivieren einer Sprachausgabe, mit deren Hilfe sich vorgegebene Sätze auswählen und sprechen lassen.

Ausgelegt für querschnittsgelähmte Nutzer sowie Schlaganfall-, MS- und Beatmungs-Patienten, gibt die Anwendung all jenen Anwendern eine Stimme, die sich sonst nicht oder nur unter großer Anstrengung an Gesprächen teilnehmen könnten.

Der Gegenentwurf zu den oft unglaublich teuren Lösungen der Medizinprodukt-Hersteller wurde direkt nach dem ersten Auftreten des Coronavirus in Wuhan entwickelt und wird von seinen Machern kostenlos im App Store verteilt.

Noch spricht die App ausschließlich Englisch, erste Übersetzer arbeiten jedoch an einer Erweiterung des quelloffenen Projektes.

Zudem können dem vorhandenen Katalog eigene Sätze hinzugefügt werden.

Laden im App Store
‎Vocable AAC
‎Vocable AAC
Entwickler: WillowRoot Apps, LLC.
Preis: Kostenlos
Laden

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
20. Mrz 2020 um 13:59 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    18 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Ein guter und geschätzter Freund ist letztes Jahr an einer Lungenerkrankung gestorben. Die letzten Tage hat er nur Kopf-nickend auf meine Fragen reagiert, da er beatmet werden musste und nicht sprechen konnte. Seinem Blick nach hatte er noch soviel zu sagen. Ich hoffe, dass diese APP vielen Menschen helfen kann. Gute Sache!

  • Sebastian Voigt
    • Und ich hoffe, dass du niemals eine solche Lösung brauchen wirst. Denk mal Dübel nach…

      • Ist doch alles gut. Heute scheint die Sonne.

      • @Heavy Vielleicht versuchst Du mal zu verstehen, was Rinaldo sagen wollte .. Denk mal Dübel nach…

      • Ich habe drüber nachgedacht und und festgestellt, dass ihn das am Allerwertesten vorbeigeht. Wenn du eine andere Erklärung für den abwertenden Kommentar hast, immer her damit. P.S. Ich arbeite mit Klienten die auf solche Lösungen angewiesen sind.

      • Er wollte mit dem Klatschen sagen, dass er wirklich klatscht… ich denke mal er kommt aus Hamburg und da klatschen wir jeden Abend Kollektiv für alle die uns zur Zeit helfen die Kranken und Hilfsbedürftigen zu versorgen…
        wir klatschen sogar für alle die ihre Arbeit noch aufrecht erhalten
        Ich selber arbeite „nur“ in einem Betrieb der die Haftetiketten für Bode, Schüler Mayer und Co (halt Anbieter für Desinfektionsmittel und so) herstellt, aber auch wir legen unsere Arbeit zur Zeit nicht nieder…
        Der Kommentar von ihm sollte nicht Ironisch oder so sein, sondern tatsächlich den Applaus aussprechen welchen wir jeden Abend anstimmen

  • Eine wirklich tolle Sache.
    Ganz schnell zu lernen und für die Betroffenen sicher mega hilfreich.

  • Hallo, ich finde die App genial, kann aber keine Anleitung finden, wie man die Funktion aktiviert. Habe iPad Pro, App installiert, bekomme die Texte angesagt, wenn ich drauf tippe, aber Kopfbewegungen werden nicht erkannt. Es steht nirgendwo, ob bzw was man aktivieren muss damit Kopfbewegungen erkannt werden.

    • Hab die App nicht, aber schau mal vielleicht in den Berechtigungen nach

      Einstellungen – Datenschutz – Kamera
      Einschalten für die App

      Könnte mir vorstellen, dass es daran liegt

    • Das hast du richtig erkannt. Es liegt am ARKit und der TrueDepth Kamera. Bei der Anfrage um Erlaubnis die Kamera zu nutzen, welche an sich auch nur auf Geräten mit ARKit und TrueDepth kommt, schreibt der Entwickler folgendes:

      „Vocable uses ARKit head tracking to detect the user’s face as seen in the device’s TrueDepth front camera feed for the purpose of controlling an on-screen pointer, allowing users with limited mobility to interact with the app. Head orientation and position data is used expressly for controlling the on-screen pointer. That head tracking data is not stored or transmitted in any way. Vocable needs permission to use the camera for this purpose.“

  • Unglaublich diese App. Das funktioniert wirklich so gut. Wenn man einige Zeit mit dem Pointer auf eine, Feld bleibt, wird dieser auch automatisch ausgewählt. Man kann seine eigenen Dinge eingeben. Sehr aufwendig, aber vielleicht wenn man Hilfe hat… aber das macht es dann noch besser. Natürlich müssen Kopf und Gerät Präzise ausgerichtet sein. Also ich denke es ist schon schwer wenn jemand es einem nur hin hält. Es bräuchte immer eine entsprechende Halterung, die ausgerichtet ist.

  • Ja, auch auf einem iPad Pro 2017 funktionierts leider nicht

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 39294 Artikel in den vergangenen 8431 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven