ifun.de — Apple News seit 2001. 39 479 Artikel

Mit 21 Sprachen führend

Bericht: So lernt Siri neue Sprachen

Artikel auf Mastodon teilen.
29 Kommentare 29

Die Nachrichtenagentur Reuters hat mit Apples Alex Acero gesprochen und sich erklären lassen, wie Apple seiner Sprachassistentin Siri neue Sprachen beibringt.

Sirigif

Anlass ist der Ausbau des Siri-Repertoires, der aktuell um „Shanghainese“ erweitert wird. Ein chinesischer Dialekt, der rund um die 15 Millionen Einwohner starke Industriestadt Shanghai gesprochen wird.

Wertet man diesen als eigenständige Sprache – Apple macht dies bekanntermaßen auch mit Kölsch – dann versteht sich Apples Sprachassistentin demnächst auf 22 unterschiedliche Sprachen und fürht das Feld der Assistenz-Systeme damit deutlich an.

Aktuell kann Siri mit 21 Sprachen umgehen, die für den Einsatz in 36 Ländern angepasst wurden. Microsofts Cortana versteht sich hingegen nur auf 13 Länder, Googles Assistant spricht vier Sprachen und Amazons Alexa kennt nur Deutsch und Englisch.

Doch trotz der polyglotten Grundausstattung, dies schreibt Reuters unter Verweis auf einen Experten, habe Siri seinen Vorsprung vergeudet. Apples Assistentin versteht zwar viele Wörter, hat aber oft Probleme mit ganzen Sätzen, der Auswertung von Fragen und dem Liefern passender Antworten.

Dennoch ist der Reuters-Artikel lesenswert, werden doch hier erstmals die Schritte beschrieben, die es braucht, um Siri auf die Unterstützung neuer Sprachen vorzubereiten. Ein Auszug:

[…] Wenn Apple damit anfängt an einer neuen Sprache zu arbeiten, setzt das Unternehmen zuerst auf Menschen. Diese lesen in unterschiedlichen Akzenten und Dialekten Texte vor, die dann von Hand transkribiert werden, so dass der Computer eine genaue Darstellung des gesprochenen Textes hat, so Alex Acero , Leiter der Sprachen-Abteilung bei Apple. Apple sichert zudem auch eine Reihe von Tönen in einer Vielzahl von Stimmen. Auf dieser Basis wird ein Sprachmodell gebaut, das versucht Wortsequenzen vorherzusagen.

Anschließend rollt Apple dann seinen „Diktiermodus“ aus, einen Text-to-Speech-Übersetzer in der neuen Sprache. Wenn Kunden den Diktiermodus verwenden, erfasst Apple einen kleinen Prozentsatz der Audioaufnahmen und anonymisiert diese. Die Aufnahmen werden dann, komplett mit Stör- und Hintergrundgeräuschen, erneut von Menschen transkribiert. Ein Prozess, der dabei hilft, die Fehlerrate der Spracherkennung zu halbieren. […]

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
09. Mrz 2017 um 17:40 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    29 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Reinhard Schmidpeter

    Shanghai hat wie auch Peking über 20 Millionen Einwohner.

  • Geil… Das würde ich ja auch feiern… Siri taugt nix, dass aber in vielen Sprachen

    • Doch doch, Siri taugt einiges. Aber wenn man natürlich nuschelt wirds schwer…

      • Da trifft Mike, teilweise den Nagel auf den Kopf, wenn man natürlich spricht, dann wird es schwer für Siri.
        Hier zeigt sich doch, dass Amazon den Weg geht in zwei Sprachen zu lernen und das gelernte dann vermutlich in anderen umzusetzen.

      • Muss man mehr sagen als „versteht zwar viele Wörter, hat aber oft Probleme mit ganzen Sätzen“…

        Ähm… Leider machen nur Sätze sinn

      • ich nuschel nicht. alexa versteht leider alles. wo ist der fehler? diese standardausrede kann ich nicht mehr hören. wenn man alles hinnimmt, verbessert sich auch nichts.

      • Ich nutze Siri eigentlich auch nur noch zum Diktieren. Da finde ich die auch gut. Insbesondere die Uhr versteht fast alles korrekt, auch unter schlechten Bedingungen. Ansonsten nutze ich aber lieber meinen Echo. Die Umsetzung läuft da einfach besser und man muss nicht extra den Arm verdrehen, um Alexa zu aktivieren.

  • Stefan B. aus H

    Kölsch? Echt? Apple weiß, wo man Prioritäten setzen muss.

  • Ich finde siri echt gut, nicht perfekt aber gut. Die Funktionen sind schon praktisch aber eine vernünftige Aussprache ist halt Pflicht. Bei Google kann ich besoffen nach nem Marathon nuschelnd etwas sagen und es versteht mich….. Funktionell ist siri top, sprach erkennungstechnisch leider nur Mittelfeld. Na hoffentlich arbeitet Apple kräftig weiter daran.

  • Was ich vermisse ist die Möglichkeit bilingual mit Siri zu sprechen um z.B. einen bestimmten Musiktitel in englischer Sprache Abspielen zu lassen.

    • dass das solche probleme macht, ist nach all den jahren echt ein witz!

      • Das ist aber auch ein echt schweres Problem. Siri muss ja irgendwie erkennen, wann du in welche Sprache wechseln möchtest.

    • Du willst also Tim Bendzko dann in Englischer Sprache singen lassen dank Siri?

    • Ich vermisse, Siri einfach mal offline / ohne Internet nutzen zu können. Wenigstens für rudimentäre Sachen.
      Sobald man den Flugmodus einschaltet oder das Internet weg ist, steht man in der Wüste! (Oder Regen?)

      „Siri, schalte den Flugmodus an“ – schwupp, ausgeknipst. Keine Apps mehr öffnen, keine Mail offline zur Versendung vorbereiten, nicht mal den Flugmodus wieder deaktivieren kann man,.. nada.
      Das kann Google meine ich deutlich besser.

  • Wow alle sprachen aber was Siri beherrscht… ich würde der Dame eine 5 als Schulnoten geben. „Hey Siri“ funktioniert fast nie! Schon einige mal neu konfiguriert. Klappt dann auch nur für diesen Augenblick. Ich sag der Dame was sie machen soll, dann antwortet sorry aber das habe ich nicht verstanden. Man muss genau den Wortlaut finden wie sie es haben muss. Dann die Appnamen so aussprechen wie es keiner tut. Aber was solls meistens kommt eh konnte ich nicht verstehen. Oder am besten ist das Verhalten: Siri wird aktiviert, Stelle einen Timer auf 10 Minuten, Siri antwortet Nichts nach einigen Sekunden wird die Spracheingabe aktiviert. Ganz nett wenn du zwei mal dein Kommando geben musst und dann die Antwort bekommst das kann ich leider nicht.

    • Philipp Florian Fletemeyer-Kuba

      Ich nutze sehr häufig die Diktierfunktion von Siri und bin eigentlich recht zufrieden – wenn ich langsam deutlich und klar sprechen klappt es ganz gut . Ansonsten ist das Diktieren beziehungsweise das wünschen eines Musiktitels oder bei Apple TV vier auch die Ansage eines bestimmten Filmes in englischer Sprache immer recht schwierig, da Siri wirklich nicht weiß wie sie mit zwei Sprachen gleichzeitig umgehen soll. Dieses habe ich auch schon mehrmals beim Apple Support bekannt gegeben beziehungsweise auch gelegentlich eine E-Mail hin geschickt, wodurch das Problem leider bis jetzt nicht behoben wurde. Eine Lösung dieses Problems wäre wirklich ganz klasse. Gerade auch beim Apple TV – wo ich mir zum Beispiel auch wünschen würde das Siri antwortet und zwar akustisch . . .
      Es gibt also noch ein bisschen was zu tun liebe Programmierer bei Apple . . .

    • Ich nutze die Diktierfunktion seit einem Jahr auf der Watch und bin begeistert. 80% meiner Ansagen werden verstanden. Der Rest geht meist auch noch um die gewünschte Erinnerung nachvollziehen zu können.
      Und das bei uns in der Firma, wo es teilweise recht laut ist.
      Klar ist immer Luft nach oben, aber jammern auf hohem Niveau ist auch keine Lösung. Siri lernt vom zuhören, wer nix sagt, wird auch nie richtig verstanden.

  • Ich hab Siri deaktiviert, kostet mich nur Zeit und Nerven.

    Da muss man nicht mal nuscheln, nur im Auto sitzen und schon war es das mit der tollen Sprachsteuerung, da bin ich fünf mal schneller beim tippen, auch wenns mich ein 100er kostet…

    • Ein 100er oder dein Leben. Echt witzig die Einstellung… nichz

    • Toll. Was machst wenn’s durch deine Unaufmerksamkeit dein – oder viel schlimmer – eines anderen Leben kostet?
      Hoffentlich triffst du nur nen Baum und nicht den übrigen Kfz Verkehr.

      Erinnert mich an das Statement hier vor einiger Zeit:
      „Siri, erinnere mich daran, mein Hirn auszuschalten, sobald ich in’s Auto einsteige“

      • P.S: Bauern eben! …

      • Kann John schon verstehen, aktuelles Beispiel: Gestern Morgen, Großraum Düsseldorf, Berufsverkehr, Bahn hat Strecken gesperrt, Bombenfund = noch zwei, drei Autos mehr unterwegs als sonst.
        Mit Siri (um oben genannte Unfälle – dank Hirnnutzung – zu vermeiden) versucht, Nachrichten oder Emails zu formulieren, um u.a. über die Verspätung zu informieren… hat super geklappt.
        Und nein, ich spreche normalerweise keinen (am Rhein üblichen) Dialekt. Vielleicht sollte ich’s mal mit Kölsch probieren…

      • Der arme Baum

  • Peinlich auch, dass man englische Musiktitel für Siri immer wie der letzte Dorfdepp ohne Englischkenntnisse aussprechen muss, damit Siri versteht was man meint.

  • Ich fand Siri auf der Watch eigentlich ganz ok. Neben der umständlichen Bedienung (Arm verrenken) störte mich eigentlich nur, dass Siri oft den Anfang des Satzes verschluckt hat, z.B „Hey Siri, Timer 1 Minute“ wurde schnell zu „1 Minute“, obwohl die auf „Hey Siri“ schon reagiert hat. Die Antwort darauf, „ich habe keine Termine im Zeitraum 1 Minute gefunden“, nervte zwar, aber noch schlimmer war, wenn aus „Wohnzimmerlicht aus“ „Licht aus“ wurde. Dann war es im ganzen Haus dunkel und der Rest der Familie war etwas genervt davon. Ich habe Siri aber auch nur für HomeKit und einfache Dinge, wie Timer genutzt.
    Ich habe Siri sonst nur noch zum Diktieren genutzt. Das mache ich auch immer noch. Selbst auf dem Fahrrad funktioniert das bei der Watch Series 2 bei mir. Meine Aussprache ist nicht die beste, trotzdem werden die Wörter fast immer erkannt.
    Zu Hause nutze ich jetzt Alexa. Da funktioniert die Erkennung sogar aus dem Nebenraum, Radio, Nachrichten, Musik und Heimsteuerung laufen 100%ig und sogar meine Kinder werden Woche für Woche besser verstanden.
    Alexa könnte HomeKit den Todesstoß versetzen, wenn es so weiter geht. Ich bin froh, dass ich keine HomeKit-only Geräte gekauft habe.
    Wenn Apple sich nur auf die Erweiterung in mehr Sprachräume konzentriert, verlieren die die wichtigen Märkte. Alexa ist bei weitem noch nicht perfekt. Aber der Abstand zu Siri ist schon sehr groß. Wenn Apple da noch was reißen will, müssen die jetzt loslegen und ein System bieten, was besser ist:
    Nutzererkennung – Siri soll seinen Nutzer ja eigentlich erkennen. Wenn das wirklich funktionieren würde, könnte man ja für verschiedene Nutzer auch eigene Profile anlegen.
    Bildschirmausgabe – Alexa’s Vorteil ist, dass die die Information ohne Bildschirm sehr gut rüberbringt. Da müsste Apple aufholen. Aber ein Display würde der auch gut stehen, und wenn es eine Mischung aus TV-Box mit einem Raummikrofon, wie beim Echo wäre, oder eine Raummikrofon als Dock für das iPad. Wenn das iPad eingesteckt ist, werden Informationen darauf angezeigt. Allerdings immer zusätzlich, da man ja nicht immer daneben steht.
    Dann würde der Vertrauensbonus von Apple vermutlich viele Leute wieder in Apples Ökosystem bringen.

  • Siri, blöd wie ein Meter Feldweg aber Hauptsache viele Sprachen können. Die wollen sich wohl möglichst international zum Löffel machen mit Siri.

  • Bevor ich „Shanghainese“ lerne würde ich erst mal zusehen das ich nicht nur Programme auf dem Mac starten kann, sondern konsequenterweise auch beenden könnte.

    Das ich bei RGB-Lampen auch Farbwahl und Helligkeit steuern kann..

    Siri..

    „Strunzblöde Inkonsequent Rechnergestütze Intelligenz“

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 39479 Artikel in den vergangenen 8461 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven