WWDC 2019 / iOS 13, iPadOS, tvOS, macOS

  • Ja das wäre natürlich super wenn das so kommen würde weil so wie es jetzt ist kann man es nicht wirklich gebrauchen, meine Meinung.


    das Blöde in der ersten Beta war ja das wenn man mehrere Sensoren in einem Gerät hat (über 3) konnte man ja nicht aussuchen welche in der Kachel angezeigt werden zb. Bei einem Philips Hue Motion hat man dann nur noch die Bewegung und die Hellikeit in der Kachel gesehen, erst wenn man drauf gedrückt hat konnte man auch die Temperatur sehen.

  • Noch nerviger ist es beim Aqara Hub. Der wird nun nur noch als Lampe dargestellt, selbst wenn man ihn eigentlich als Alarm System nutzen möchte. Um den Alarm scharf zu schalten, muss man nun erst in die Lampe gehen und dort den Schalter umlegen. Umständlich und unlogisch.


    Bitte sende Apple unbedingt ein Feedback dazu über das Feedback Tool.

    Wünschenswert wäre, wenn sich die Geräte manuell wieder aus einer Gruppe lösen lassen würden oder man zumindest definieren kann, welches Gerät das "Hauptgerät" ist.

  • Noch nerviger ist es beim Aqara Hub. Der wird nun nur noch als Lampe dargestellt, selbst wenn man ihn eigentlich als Alarm System nutzen möchte. Um den Alarm scharf zu schalten, muss man nun erst in die Lampe gehen und dort den Schalter umlegen. Umständlich und unlogisch.


    Bitte sende Apple unbedingt ein Feedback dazu über das Feedback Tool.

    Wünschenswert wäre, wenn sich die Geräte manuell wieder aus einer Gruppe lösen lassen würden oder man zumindest definieren kann, welches Gerät das "Hauptgerät" ist.

    Das wünsche ich mir auch und hoffe das es so auch umgesetzt wird! Da war es so wie in iOS 12 auf jedenfall besser gelöst, auch wenn’s dann mal mit den ganzen Kacheln eng werden konnte aber so wie in der aktuellen Public Beta 2 absolut bescheiden gelöst.


    Wie ist es denn bei der DEV. iOS 13 Beta 3, wurde da in der Richtung schon wieder was geändert / verbessert?

  • In dem Fall wissen ja alle. Beta-Tester, was zu tun ist.


    Eure Wünsche und Reklamationen an Apple melden, je mehr desto mehr Gewicht erhalten die Themen 😜

  • Also Siri Sprachausgabe ist in der aktuellen Beta aus den HomeKit Shortcuts nicht möglich. Mal schauen, ob sich das noch ändert. Allerdings muss man ja beachten, dass diese auch auf einem Apple TV ausgeführt werden müssen können, und das hat nun mal leider keinen eingebauten Lautsprecher.

    Immerhin lässt sich – je nach App – doch sogar mit der jetzigen iOS-Version eine Sprachausgabe zumindest auf dem iPhone/iPad realisieren. So kann man bspw. in der Karten App eine geschätzte Zeit für einen Ankunftsort bezogen auf den gegenwärtigen Standort in einen eigenen Text packen und von Siri erzählen lassen und zusätzlich in beliebiger Reihenfolge die gewünschten HomeKit-Szenen auslösen.


    In iOS 13 sollte das dann mit Leichtigkeit tatsächlich auch anders herum funktionieren, sodass eine Guten-Morgen-Szene den/die gewünschten Kurzbefehl/e für die Sprachausgabe auslöst. Mir persönlich würde es dabei vollkommen reichen, wenn ein iPhone/iPad solche Sprachansagen direkt ausgibt, ohne dass das Audiosignal erst auf einen HomePod geroutet werden muss. Aber eine derartig automatisierte Airplay 2 Receiverauswahl geht dann ja womöglich auch mit iOS 13?! :/

  • Was ich auch total klasse finde, ist die neue Möglichkeit durch antippen von NFC Tags beliebige Automationen zu starten auch mit Geräten und Szenen aus der Home App, das bringt mit Sicherheit viele coole Einsatzmöglichkeiten 👍🏼



    Sent from my iPhone using Community

    Hier mal ein Praxisbeispiel von AppleInsider dazu:


    How to use NFC to control your home with iOS 13

    Ich finde vor allem die Möglichkeiten durch die Erkennung von NFC Tags in der Shortcuts App sehr interessant!

    Mit einem Tippen des iPhones an den Tag, kann ich die Wiedergabe auf ein Airplay Gerät weiterreichen. Allerdings leider noch sehr buggy auf dem iPhone X - aber für die Zukunft wirklich sehr interessant

    Hmmm laut den Kommentaren beim Video von AppleInsider, ist das iPhone X gar nicht supported? Haben sie das vielleicht bei der aktuellen Beta schon wieder rausgenommen? Denn auch im Developer Portal steht, dass nur iPhone Xs und neuer supported sind:


    Adding Support for Background Tag Reading

  • Immerhin lässt sich – je nach App – doch sogar mit der jetzigen iOS-Version eine Sprachausgabe zumindest auf dem iPhone/iPad realisieren. So kann man bspw. in der Karten App eine geschätzte Zeit für einen Ankunftsort bezogen auf den gegenwärtigen Standort in einen eigenen Text packen und von Siri erzählen lassen und zusätzlich in beliebiger Reihenfolge die gewünschten HomeKit-Szenen auslösen.


    In iOS 13 sollte das dann mit Leichtigkeit tatsächlich auch anders herum funktionieren, sodass eine Guten-Morgen-Szene den/die gewünschten Kurzbefehl/e für die Sprachausgabe auslöst. Mir persönlich würde es dabei vollkommen reichen, wenn ein iPhone/iPad solche Sprachansagen direkt ausgibt, ohne dass das Audiosignal erst auf einen HomePod geroutet werden muss. Aber eine derartig automatisierte Airplay 2 Receiverauswahl geht dann ja womöglich auch mit iOS 13?! :/

    Die Shortcuts, die man unter iOS 13 in der Home App den Home Automationen hinzufügen kann, sind separat von den lokal auf einem iOS device ausgeführten zu sehen. Erstere werden dann auf dem Hub ausgeführt, man kann auch längst nicht alle Befehle nutzen, die in den persönlichen Shortcuts möglich sind. Zumindest bis jetzt sind Befehle wie AirPlay destination und auch Speak Text nicht vorhanden.


    Was eventuell möglich wäre, dass man vorgefertigte Sprach-Samples mit einbindet, diese quasi wie Musikstücke handhabt. Muss man einfach mal abwarten, ohne HomePod Update geht da im Moment eh noch nicht viel.

    Spanned finde ich allemal, dass man auch das aktuelle Wetter abfragen kann. Das ermöglicht dann ganz neue Automationen, ich denke da schon an das automatische schließen meiner Rollos bei Sonne, etc.

  • Funktioniert das bei euch mit den Shortcuts in Automationen? Bei meinem Iphone7 geht das nicht wirklich. Ich kann zwar was eingeben, aber den Shortcut speichert er mir nicht in der Automation ein.

    Was bei mir auch noch fehlt sind die Snapshots bei MotionDetection. Laut google soll man in den Hauseinstellungen die Cameras finden uns einstellen können. Hier hat sich bei mir aber zu IOS12 nichts geändert, keine Kameras unter den Sensoren zu finden.

    HomeKit Geräte / Homebridge Geräte:

    4x Raspberrypi 3 Model B+ | FritzBox 7490| HarmonyHub | Sonoff | Danalock | Koogeek | Zwave | Raspi-Cam |


    Homebridge Plugins:

    Homebridge| Fritzbox | People | Callmonitor | Automation-Switches | Magichome-platform | Harmony | ewelink | Openhab | Z-Way | Camera-FFMPEG | Website-to-Camera |

  • Das habe ich noch nicht ausprobiert.

    Ich kämpfe eher damit, daß das iPhone 7 Plus extrem warm oben bei der Kamera wird, sobald Bluetooth eingeschaltet ist. Das brauche dummerweise für meine Kopfhörer. Heute war der Akku dann innerhalb von einer Stunde von 80% auf 40% herunter (normal sind eher 70%). Sobald man Bluetooth ausschaltet ist der Spuk vorbei.