Lukk annonse

Den tredje utviklerbetaversjonen av systemet iOS 13 skjuler mange nye dingser. En av dem er automatisk øyekontaktkorreksjon. Motparten får da inntrykk av at du ser rett inn i øynene deres.

Nå, når du er på en FaceTime-samtale med noen, kan den andre parten ofte se at øynene dine er nede. Dette skyldes at kameraene ikke er direkte i displayet, men i overkanten over det. I iOS 13 kommer imidlertid Apple med en ukonvensjonell løsning, der den nye ARKit 3 spiller en ledende rolle.

Systemet justerer nå bildedata i sanntid. Så selv om øynene dine er nede, viser iOS 13 deg som om du så direkte inn i den andre personens øyne. Flere utviklere som har testet den nye funksjonen har allerede dukket opp på sosiale nettverk.

En av dem var for eksempel Will Sigmon, som leverte tydelige bilder. Det venstre bildet viser standardsituasjonen under FaceTime på iOS 12, det høyre bildet viser automatisk korreksjon gjennom ARKit i iOS 13.

iOS 13 kan fikse øyekontakt under FaceTime

Funksjonen bruker ARKit 3, den vil ikke være tilgjengelig for iPhone X

Mike Rundle, som var på vakt, er fornøyd med resultatet. Dessuten er det en av funksjonene han spådde tilbake i 2017. Forresten er hele listen hans over spådommer interessant:

  • iPhone vil kunne oppdage 3D-objekter i omgivelsene ved hjelp av kontinuerlig romskanning
  • Øyesporing, som gjør det mulig for programvare å forutsi bevegelse og lar systemets brukergrensesnitt kontrolleres av øyebevegelse (Apple kjøpte SensoMotoric Instruments i 2017, som regnes som en leder på dette feltet)
  • Biometriske og helsedata innhentet ved å skanne ansiktet (hva er personens puls osv.)
  • Avansert bilderedigering for å sikre direkte øyekontakt under FaceTime, for eksempel (noe som nå har skjedd)
  • Maskinlæring vil gradvis tillate iPhone å telle gjenstander (antall personer i rommet, antall blyanter på bordet, hvor mange T-skjorter jeg har i garderoben min...)
  • Øyeblikkelig måling av objekter, uten behov for å bruke en AR-linjal (hvor høy er veggen, ...)

I mellomtiden bekreftet Dave Schukin at iOS 13 bruker ARKit for å korrigere øyekontakt. Under tregere avspilling kan du fange hvordan brillene plutselig forvrenges før de settes på øynene.

Utvikler Aaron Brager legger så til at systemet bruker en spesiell API som kun er tilgjengelig i ARKit 3 og er begrenset til de nyeste iPhone XS / XS Max og iPhone XR-modellene. Den eldre iPhone X støtter ikke disse grensesnittene, og funksjonen vil ikke være tilgjengelig på den.

kilde: 9to5Mac

.