Met deze toegankelijkheidsoptie bestuur jij je iPhone met je ogen
Apple brengt eye tracking naar de iPhone en iPad. Hierbij wordt het mogelijk om de apparaten te besturen met je ogen.
Het is Global Accessibility Awareness Day en om dit te vieren kondigt Apple nieuwe toegankelijkheidsfuncties aan voor de iPhone, iPad en Vision Pro.
Misschien wel de tofste is eye tracking. Het maakt het mogelijk om je iPhone te besturen met je ogen. Je hoeft dus niet meer op het scherm te drukken.
Eye tracking op iPhone en iPad
Eye tracking is een van de eerste echte AI-functies op de iPhone en iPad. Het geeft je de mogelijkheid om je apparaat te besturen met alleen je ogen. Apple heeft deze functie speciaal ontworpen voor mensen met een fysieke beperking, maar zelf kan je het ook gewoon proberen.
Voor eye tracking gebruikt Apple de selfiecamera om te kalibreren. Dit proces duurt maar een aantal seconden. Door middel van machine learning leert de iPhone telkens bij over hoe de gebruiker het toepast.
Het wordt dus mogelijk om de iPhone te besturen door te kijken naar je scherm en je ogen te bewegen. Je hoeft dus alleen naar een bepaalde snelkoppeling te kijken om ‘m te openen. Of je kan je ogen gewoon bewegen als je bijvoorbeeld verder wilt scrollen in een tekst.
Het fijne is dat alle gegevens worden opgeslagen op de iPhone zelf. Er is dus geen internetverbinding nodig om het te gebruiken. Daarnaast worden de gegevens daardoor ook opgeslagen op het apparaat zelf. Zo zijn ze extra veilig.
Een vooruitblik op iOS 18
Helaas is de functie op dit moment nog niet beschikbaar. Apple wil het later dit jaar naar de iPhone en iPad brengen. Het zal dus naar alle waarschijnlijkheid pas op iOS 18 of later beschikbaar komen.
Deze nieuwe functie geeft ons alvast een voorproefje van wat we van iOS 18 kunnen verwachten. Ook bij Apple zal de focus veel meer op AI komen te liggen, wat het gebruiksgemak flink moet verbeteren.