Erklärt: Was ist Apples neue Funktion „Türerkennung“ und wie funktioniert sie?

0
56

Die neuen Funktionen, die voraussichtlich noch in diesem Jahr eingeführt werden, nutzen Fortschritte bei Hardware, Software und maschinellem Lernen. (Bildnachweis: Apple)

Der iPhone-Hersteller Apple hat eine Reihe neuer Softwarefunktionen vorgestelltkombiniert mit den Hardwarefunktionen einiger seiner High-End-Geräte, um Benutzern mit bestimmten körperlichen Behinderungen zu helfen. Zu diesen Funktionen gehören die Türerkennung auf dem iPhone und dem iPad; Live-Untertitel auf iPhone, iPad und Mac und mehr. Diese Funktionen, so Apple, werden später in diesem Jahr durch Software-Updates auf Apple-Geräten verfügbar sein.

Ebenfalls in Explained |Google I/O 2022: Google’s Artificial Intelligence and Machine Learning Breakthroughs, erklärte

< strong>Was ist Türerkennung und wie funktioniert sie?

Apple sagte in einer Erklärung, dass diese Funktion blinden oder sehbehinderten Benutzern helfen kann, eine Tür bei der Ankunft an einem neuen Ziel zu lokalisieren, zu verstehen, wie weit sie davon entfernt sind, und Türattribute zu beschreiben – einschließlich, ob sie offen oder geschlossen ist , und wenn es geschlossen ist, ob es durch Drücken, Drehen eines Knopfes oder Ziehen eines Griffs geöffnet werden kann. Door Detection kann auch Zeichen und Symbole rund um die Tür lesen, wie die Zimmernummer in einem Büro oder das Vorhandensein eines zugänglichen Eingangssymbols, behauptete das Unternehmen. Diese Funktion nutzt LiDAR, Kamera und maschinelles Lernen auf dem Gerät und wird auf iPhone- und iPad-Modellen mit dem LiDAR-Scanner verfügbar sein.

Was sind Live-Untertitel?

Mit dieser Funktion können gehörlose oder schwerhörige Benutzer beliebige Audioinhalte auf ihren iPhones, iPads und Macs durch Untertitelung in Echtzeit verfolgen. Dazu gehören Anwendungsfälle wie ein Telefonanruf, ein FaceTime-Anruf, eine Videokonferenz oder eine Social-Media-App sowie das Streamen von Medieninhalten oder sogar ein Gespräch mit jemandem neben sich. Das Unternehmen sagte, dass Benutzer bei der Verwendung von Live Captions für Anrufe auf dem Mac die Möglichkeit haben, eine Antwort einzugeben und sie in Echtzeit mit anderen Gesprächsteilnehmern laut sprechen zu lassen. „Und da Live-Untertitel auf dem Gerät generiert werden, bleiben Benutzerinformationen privat und sicher“, fügte sie hinzu.

Was sind einige der anderen Funktionen?

https://images.indianexpress.com/2020/08/1×1.png

Einige der anderen Funktionen umfassen Apple, das Menschen mit motorischen Behinderungen eine Möglichkeit bietet, einige der Apple Watch-Apps auf das iPhone zu spiegeln, und Handgesten für Menschen mit Amputationen, um bestimmte Aktionen wie das Aufnehmen eines Fotos, das Annehmen eines Anrufs usw. mit einem auszuführen Geste wie eine ‘doppelte Prise’.

Best of Explained

Klicken Sie hier, um mehr zu erfahren.

Gibt es Bedenken hinsichtlich der Einführung dieser Funktionen?

Laut einem TechCrunch-Bericht sind einige dieser Funktionen und Dienste, die Apple einführen wird, bereits vorhanden von Drittanbietern und Apps bereitgestellt werden. Und die Bereitstellung dieser Dienste als integrierte Funktionen auf Apple-Geräten könnte „unabhängigen Dienstanbietern ähnlicher Dienste die Flügel stutzen“ – etwas, das möglicherweise den Wettbewerb und die daraus resultierende Qualitätssteigerung behindern könnte. Darüber hinaus werden Funktionen wie die Türerkennung nur auf einer begrenzten Anzahl von High-End-Apple-Geräten mit einem LiDAR-Scanner verfügbar sein, darunter iPhone 13 Pro, iPhone 13 Pro Max, iPhone 12 Pro, iPhone 12 Pro Max, iPad Pro 11 Zoll (2nd und 3. Generation) und iPad Pro 12,9 Zoll (4. und 5. Generation). Ebenso wird die Apple Watch-Spiegelung nur auf der Apple Watch Series 6 und höher verfügbar sein.

Newsletter | Klicken Sie hier, um die besten Erklärungen des Tages in Ihren Posteingang zu bekommen