Google mit 30 Sprachen zum Jahresende
Siri polyglott: Das große Alleinstellungsmerkmal fällt weg
Ganz gleich, mit wie vielen Unzulänglichkeiten Apples Sprachassistentin Siri in der Vergangenheit zu kämpfen hatte, in einem Bereich konnte die mit dem iPhone 4s eingeführte, virtuelle Assistentin stets punkten und war der Konkurrenz um Meilen voraus: Der massiven Sprachen-Unterstützung.
Wie umfangreiche diese ist und wie engagiert deren Ausbau vorangetrieben wird, erklärte Cupertino erst im vergangenen Jahr. Anlass für das Gespräch zwischen der Nachrichtenagentur Reuters und dem Apple-Manager Alex Acero war der Ausbau des Siri-Repertoires, der im Frühling 2017 um „Shanghainese“ erweitert wurde. Ein chinesischer Dialekt, der rund um die 15 Millionen Einwohner starke Industriestadt Shanghai gesprochen wird.
Wertet man diesen als eigenständige Sprache, so versteht sich Apples Sprachassistentin seitdem auf 22 unterschiedliche Sprachen und gab in der Branche unangefochten den Ton an.
Während Siri mit über 20 Sprachen umgehen kann, die für den Einsatz in 36 Ländern angepasst wurden, versteht sich Microsofts Cortana nur auf 13 Länder, Amazons Alexa kennt bislang nur Deutsch, Japanisch und Englisch.
Google könnte Apple noch 2018 überholen
Doch Google holt auf. Nachdem der Suchmaschinen-Anbieter sein Repertoire von vier Sprachen bereits im vergangenen Jahr auf 8 verdoppelt hat und nun auf Deutsch, Englisch (Großbritannien, USA, Kanada, Indien, Singapur, Australien), Französisch, Italienisch, Spanisch, Japanisch, Koreanisch und Portugiesisch (Brasilien) verfügbar ist, hat das Unternehmen angekündigt das Sprachverständnis bis Ende des Jahres auf insgesamt 30 Sprachen auszubauen.
Allein im Laufe der kommenden Monte soll der Google Assistent auf Dänisch, Niederländisch, Hindi, Indonesisch, Norwegisch, Schwedisch und Thai bereitstehen. Ende 2018 sollen mit den geplanten 30 Sprachen dann 95% der Android-Community verstanden werden. Sobald Google die angekündigte Bereitstellung der neuen Sprachen abgeschlossen hat, fehlt Siri eines ihrer letzten Alleinstellungsmerkmale.
Es ist für mich wunderlich, weshalb Apple es nicht hinkriegt, Siri massiv aufzubohren. Wollen sie einfach nicht?
Die Frage stelle ich mir auch immer wieder.
Was mich wundert und nervt ist das Siri bei zb englischen Firmennamen in einem deutschen Satz immer noch nur bullshit hört… oder Song Titel oder Eigennamen. Wenn Siri wirklich polyglott wäre würde sie alle Sprachen auf einmal unter einen Hut bekommen !
Stimmt, dass Siri einfachste englische Songtitel nicht versteht, ist eines der größten Ärgernisse für mich. Man kann eigentlich immer nur Herbert Grönemeyer hören. Das Problem hat sich bei aber mir durch die Anschaffung von Echos erledigt, Alexa versteht mich.
Lustig. Mich versteht Siri in 99% aller Fälle, wenn ich englische Songtitel/Bands hören will. Aber ich bin auch kein Deutscher und habe auch dementsprechend eine vernünftige Aussprache in englisch.
Deutsche können keine vernünftige englische Aussprache haben…
Denk noch mal drüber nach, Rassismus ist auch für dich nicht in Ordnung.
Nein, ist es nicht. Es wird daran liegen, dass Apple die Daten die man tagtäglich in Siri reinspricht, nicht direkt in der Cloud auswertet – so wie es Amazon und Google tun. Apple legt (mehr) wert auf Privatsphäre, schränkt sich deswegen aber auch bei der Entwicklung ein.
Wenn du Alexa besitzen solltest, dann schau einfach mal in den Verlauf und dann kannst du dich darüber gruseln was Amazon alles aufgezeichnet hat. (ja, die Aufnahmen liegen *alle* auf deren Server und können immer wieder abgespielt werden!)
Wie viel Wert Apple auf Privatsspähre legt konnte man ja erst kürzlich wieder sehen als es um den Einsatz in China ging. Dort hat Apple die Nutzerdaten auch heroisch und getreu den eigenen Grundsätzen verteidigt ohne einen Millimeter von den eigenen Überzeugungen abzweichen……..
Wie gut Siri ohne Cloud Unterstützung auskommt sieht man ja auch daran, dass dieses tadellos und ohne jede Einschränkung funktioniert, wenn der Flugmodus aktiviert und damit alle Datenverbindungen unterbrochen sind……
Vielleicht ist der Grund für die Performance von Siri also doch eher, dass es Apple einfach nicht hinkriegt!
Siri funktioniert nur wenn man online ist, also weiß man gar nicht, was alles aufgezeichnet wird (sobald hey siri aktiv ist). Bei Amazon kann man das wenigstens transparent nachgucken.
Du hast Recht, ich hab mich mißverständlich ausgedrückt. Natürlich werden die Sprachdaten zu den Apple Servern geschickt und dort bearbeitet, sie werden aber nicht im gesamten gespeichert und analysiert. Siri lernt, aber eben nur an einem Nutzer. Apple sagt auch sehr eindeutig was an Daten sie verwenden und speichern: https://www.apple.com/de/privacy/approach-to-privacy/
Nein das stimmt nicht, laut Apples iOS Security Guide – White Paper (2018) werden die Audiodaten aus Siri sogar mit Namen für 6 Monate auf den Apple Servern gespeichert, danach für weitere 2 Jahre mit einer anonymen ID… Diese Daten gewährleisten die Weiterentwicklung von SIRI, mit dem Unterschied dass, im Vergleich zu Alexa, keine Marktforschung betrieben wird… Trotzdem haben sie theoretisch genug Input um Siri deutlich zu verbessern… Warum das nicht geschieht… keine Ahnung !?!
Stimmt Apple hätte da einfach gegen das Gesetz handeln sollen *facepalm*.
Nur weil du, ich und sehr viele andere Menschen der Überzeugung sind dass die Gesetze in China Quatsch sind, haben sich die Unternehmen dort dennoch solange daran zu halten bis diese eben nicht mehr gelten. Oder soll sich Audi in Deutschland nicht mehr an deutsche Gesetze halten weil ein Großteil der Menschen in Saudi Arabien auch andere Sichtweisen auf unsere Gesetze haben?
Vielleicht weil es die meisten gar nicht nutzen? Ich zumindest nutze Siri gar nicht, weil ich dafür keinen Verwendungszweck habe. Apple verdient an Siri halt kein Geld und die Technik ist relativ aufwendig. Die Entwicklung bei Siri ist aber immernoch intensiver als beim ATV.
Was soll Apple den aufbohren? Diese katastrophale Software kann fast nichts. Alben, Künstlernamen, das kann Siri fast nie erkennen. Zwei Sprachen gleichzeitig? Ne, warum. Die qualität der Spracheingabe für nachrichten und so, einfach erbärmlich. Sie müssen den Assistenten neuschreiben. An Siri gibt es nichts was verbessert werden kann.
Siri wird wohl hoffentlich mit iOS12 um einiges besser!
Weiters wäre es so nett, wenn Apple auch in Ö Siri auf dem AppleTV aktivieren würde!
Hackt doch nicht immer nur auf Siri rum. Das Google oder Alexa besser seien sind doch nur Sprüche von Apple-Hassern. Bei mit funktioniert Site echt gut, ich diktiere viele Nachrichten ohne Probleme. Und ob Siri jetzt irgendwelche irrelevanten Sportergebnisse aus der 2ten Liga nicht kennt ist doch wohl egal.
Hey Siri…Nachricht an meine Frau: Hol mich bitte von J… ab.
Siri: War nicht bitte von J… ab.
Nein, ich nuschel nicht und spreche auch keinen Dialekt.
Hallo Apple,
ich hätte noch gerne Kölsch!
Was soll das denn sein? Eine Sprache die man spricht wenn man dieses furchtbare Bier trinkt?
;-)
Spaß bei Seite – schönen Gruß aus Düsseldorf
Wer selbst in Alt-(!)Bier schwimmt, sollte nicht… :-)
Ein Ex-Dortmunder…
(Nur Spaß, ich trinke zur Not auch Weißbier :))
Warum ist Siri überhaupt an eine iOS Version gebunden? Warum heißt es immer mit iOS 11,12,13 wird es besser? Siri funktioniert doch hauptsächlich nur im Backend oder nicht? Warum bedarf es eines Major Release um Siri upzudaten? Warum tut sich Apple so schwer?
Stimmt! Genau wie es mit iOS 11 um einiges besser wurde! Und mit iOS 10. Und mit iOS 9….
Das ist doch kein USP wenn man sich hinstellt und sagt, unsere Spracherkennung versteht „Hey Siri, wie geht es dir?“ in 25 Sprachen. Zu viel mehr ist Siri, abgesehen in englisch kaum in der Lage.
Auch muss man mal anfangen, von dieser „Maschinensprache“ weg zu kommen. Da sollte man sein Hauptaugenmerk rein setzen. Und dann eben nicht 25 Sprachen, sondern mal den Fokus auf die wichtigsten Sprachen setzen.
Sagst sich leicht wenn man deutsch ist..
Im gleichen Kommentar Fokus auf die wichtigsten Sprachen wollen und sich drüber beschweren, dass Siri im Englischen mehr kann…
Ja und weiter?
Vor allem weil deutsch dann nicht dabei wäre xD.
Da müsste erstmal englisch, spanisch, Mandarin kommen.
tauscht doch mal die Schokopuddinge im letzten Absatz gegen „Monate“ aus….das sieht sonst komisch aus :)
Monte beste
Na ja, das stört mich jetzt nicht so extrem. Die Frage ist dann ja auch noch, wie das unterstützt wird. Im amerikanischen Raum soll Siri ja auch in vielen Bereichen mit der Konkurrenz mithalten.
Wenn die das in allen 30 Sprachen hinbekommen würden, sähe ich das wirklich als Vorteil. So fragt man sich, warum Apple diesen Vorsprung so leicht aus der Hand gegeben hat.
Naja, wenn man die Entwicklungsfortschritte im Zusammenhang mit dem wachsenden Vermögen von Apple betrachtet könnte ich heulen. Warum dieser riesige Konzern sein Potenzial nicht nutzt ist mir in Rätsel. Ich bin seit Januar mit dem Pixel 2 unterwegs und muss zugeben, dass bei Android (Google) viele Dinge echt erstaunlich gut funktionieren und Apple dagegen verblassen lässt.
Leider ist die Rechnung nicht so einfach: mehr Entwickler bedeutet nicht automatisch bessere Software. Das skaliert nicht beliebig. Wichtiger sind aufeinander eingespielte, kleine Teams und eine gute Architektur.
Man kann natürlich andersrum versuchen mehr Leute für einzelne Features zu engagieren, aber wenn die sonst keinen Plan davon haben, wie das Zusammenspiel der Komponenten zueinander ist oder das Gesamtkonzept nicht verstanden haben kommt dann eben bestenfalls etwas nicht harmonisches dabei heraus…
Danke Siri, dass du gefühlt nach 3 jahren immer noch nicht in der Schweiz auf der Apple TV funktionierst. Eigentlich sollte man sein Geld zurück verlangen.
Und kommt mir jetzt keiner mit deutschen Apple ID
:0p
Ne ich komme dir damit, dass zum Kaufzeitpunkt bekannt war, dass Siri in der Schweiz nicht funktioniert. Von daher kein Geld zurückverlangen ;)