banner

Blog

Aug 29, 2023

Erweiterte Schärfentiefe in Augmented Reality

Wissenschaftliche Berichte Band 13, Artikelnummer: 8786 (2023) Diesen Artikel zitieren

238 Zugriffe

1 Altmetrisch

Details zu den Metriken

Das 3D-Anzeigegerät zeigt ein Bild mit Tiefeninformationen. Herkömmliche 3D-Anzeigegeräte, die auf binokularer Parallaxe basieren, können nur auf die Tiefe eines bestimmten Bildschirms genau fokussieren. Da das menschliche Auge unter normalen Umständen über eine geringe Schärfentiefe (DOF) verfügt, gibt es bei 3D-Displays, die einen relativ großen Bereich virtueller Tiefenbereiche bieten, Einschränkungen hinsichtlich des DOF, bei dem klare 3D-Bilder zu sehen sind. Um dieses Problem zu lösen, ist es notwendig, die optischen Bedingungen für die Erweiterung des DOF ​​zu finden und die damit verbundenen Phänomene zu analysieren. Hierzu wird unter Verwendung des Rayleigh-Kriteriums und des Strehl-Verhältnisses ein Kriterium für diese Erweiterung des DOF ​​vorgeschlagen. Eine praktische optische Struktur, die den DOF effektiv erweitern kann, wird mithilfe eines Flachbildschirms entwickelt. Diese optische Struktur könnte auf AR, VR und MR im Bereich augennaher Displays angewendet werden. Aus den Ergebnissen dieser Forschung werden die grundlegenden optischen Bedingungen und Standards für 3D-Displays vorgeschlagen, die in Zukunft 3D-Bilder mit erweitertem DOF liefern werden. Darüber hinaus wird erwartet, dass diese Bedingungen und Kriterien auch auf optische Designs für die erforderliche Leistung bei der Entwicklung von 3D-Displays in verschiedenen Bereichen angewendet werden können.

3D-Displays wie brillenartige oder brillenlose Stereo-3D-Displays bieten normalerweise binokulare Parallaxe1,2. Um eine Bewegungsparallaxe bereitzustellen, können außerdem die Positionsinformationen von Beobachtern für einen Softwareprozess als Feedback3,4,5,6 verwendet werden. Mithilfe einer Multiview-3D-Anzeige kann Bewegungsparallaxe auch optisch bereitgestellt werden7,8,9,10,11. Wenn eine Person außerdem ein Objekt in einer natürlichen Umgebung betrachtet, laufen die Blicklinien beider Augen auf den Ort des Objekts zusammen und erzeugen einen Fixierungspunkt in der Fovea der Netzhaut. Gleichzeitig passt das Auge die Dicke der Augenlinse so an, dass das Bild der Netzhaut durch Fokussierung auf die Konvergenztiefe klar wird. Auf diese Weise wird der Konvergenz-Akkommodations-Verknüpfungsvorgang auf natürliche Weise im menschlichen Auge ausgeführt.

Im Fall des 3D-Bildes kann ein Gefühl der Tiefe durch ein binokulares Parallaxenbild vermittelt werden. Die 3D-Bilderkennung wird durch die Kombination von binokularen und monokularen Effekten erreicht. Bei monokularen Effekten gibt es einen Effekt der Fokussteuerung. Bei der Betrachtung eines 3D-Bildes beträgt der Tiefenbereich virtueller Objekte, den das menschliche Auge durch Akkommodation als klares Bild auf der Netzhaut wahrnimmt, bekanntermaßen durchschnittlich etwa ± 0,3 Dioptrien bei einer Pupillenweite von 3 mm12. Wenn daher von der 3D-Anzeige ein 3D-Bild mit einer Tiefenschärfe von mehr als ± 0,3 Dioptrien bereitgestellt wird, kann ein Betrachter aufgrund der Unschärfe des Bildes auf der Netzhaut das insgesamt klare 3D-Bild vom bereitgestellten 3D-Bild mit einem solchen Unterschied nicht sehen ausführlich. Das heißt, es kommt zu einem Vergenz-Akkommodations-Konflikt (VAC)13,14. Dieses VAC-Phänomen kann zu einer Ermüdung der Augen führen, sodass die Tiefe des auszudrückenden 3D-Bildes zwangsläufig begrenzt ist und auch der Anwendungsbereich des 3D-Bildes begrenzt ist. Wenn daher der DOF in einem allgemeinen 3D-Bild erweitert wird, kann man sagen, dass das monokulare Bild ein 2D-Bild ist, das unabhängig von den Tiefeninformationen des Bildes im vergrößerten DOF-Bereich immer ein klares Bild zeigt. Kombiniert man ein solches 3D-Bild jedoch mit der binokularen Parallaxe der Blicksituation beider Augen, ist immer dann ein klares Bild zu sehen, wenn die Blicktiefe beider Augen im Bereich des DOF ​​liegt. Dabei handelt es sich jedoch nicht um ein 3D-Bild mit den Eigenschaften eines echten Bildes. Das Erkennen des 3D-Bildes des Blickpunkts stellt jedoch kein Problem dar, da der Betrachter ein klares Bild erkennen kann, selbst wenn er den 3D-Bildpunkt in jeder Tiefe innerhalb des Tiefenbereichs des DOF ​​betrachtet.

Die 3D-Anzeigetechnologie zur Lösung dieses VAC-Problems sollte in der Lage sein, die Abweichung von Licht aus der virtuellen Bildtiefe zu steuern, ähnlich wie die Holographietechnologie15,16. Oder implementieren Sie eine räumliche Anzeige zur Bereitstellung von 3D-Bildern wie in einem volumetrischen Bildanzeigegerät17,18,19. Diese Technologien können für allgemeine glasfreie 3D-Displays angewendet werden, aber Hologramm-Technologien haben immer noch einige Einschränkungen in der Leistung von räumlichen Lichtmodulatoren, die Amplitude und Phase für eine Anwendung anzeigen, und volumetrische 3D-Displays haben auch das Problem, den Platz für 3D-Displays zu begrenzen . Daher haben sie erhebliche Schwierigkeiten bei der Entwicklung kommerzieller 3D-Displays. Daher wurde die Forschung und Entwicklung von 3D-Displays, die Informationen zur Fokuseinstellung liefern können, hauptsächlich im Bereich der Near-Eye-Displays (NED) versucht20,21,22. Im NED-Bereich wurde eine Reihe von Studien durchgeführt, um den Tiefenbereich zu erweitern, in dem die Fokuseinstellung bereitgestellt wird, sodass diese auch dann genutzt werden kann, wenn der Sichtbereich für die Bereitstellung von 3D-Bildern begrenzt ist. Darüber hinaus gibt es verschiedene Methoden zur Fokusanpassung in der Vollparallaxenmethode23, der Super-Multiview-Methode (SMV)24 und der Lichtfeldmethode25,26. Darüber hinaus kann eine Technologie zur Änderung der Tiefe des virtuellen Bildschirms eingesetzt werden27,28. Wenn die optische Bedingung für die DOF-Erweiterung geschaffen ist, kann im Fall einer 3D-Anzeige in der Art einer Maxwellschen Ansicht auch dann, wenn dem Monokular nur ein Blickpunkt bereitgestellt wird, immer ein klares 3D-Bild betrachtet werden, wenn die binokulare Blicktiefe beträgt innerhalb des Tiefenbereichs von DOF. Insbesondere bietet das SMV-Verfahren die Möglichkeit, durch die Bereitstellung von mehr als zwei Parallaxeninformationspunkten innerhalb einer Augenpupille einen Hinweis auf die Fokussteuerinformationen bereitzustellen. So wie Tiefeninformationen aus Bildinformationen beider Augen mithilfe der binokularen Disparität abgeleitet werden können, geht man von der Annahme aus, dass ein Hinweis für eine künstliche Fokusanpassung gegeben werden kann, indem Informationen über zwei oder mehr Disparitäten für ein einzelnes Auge bereitgestellt werden, sodass Tiefeninformationen möglich sind auch in einem einzigen Auge bereitgestellt werden. In diesem Fall muss der DOF jedes SMV, das ein Bild des Blickwinkels erzeugt, breit sein, um Informationen zur künstlichen Fokussteuerung bereitzustellen, und selbst wenn der Fokus in verschiedene Tiefen verschoben wird, kann ein klares Bild gesehen werden29,30,31. Vor diesem Hintergrund ist die Implementierung eines einzelnen Parallaxenbildes mit einem großen DOF ein wichtiger Faktor bei der Realisierung mehrerer Arten von 3D-Bildern, einschließlich SMV32,33,34,35. Daher kann diese Anwendung auch dann verwendet werden, wenn dem Monokular im Falle einer 3D-Darstellung in Form einer Maxwellschen Ansicht nur ein Blickpunkt zur Verfügung gestellt wird. Wenn außerdem ein optisches System mit einem breiten Tiefenbereich von DOF auf eine optische Struktur wie Maxwellsche Ansicht, SMV, IP und Lichtfeld angewendet wird, können hologrammartige Effekte erzielt werden, wie in Referenzarbeiten29,34,35, auf die angewendet wird SMV. Dementsprechend kann ein 3D-Bild ähnlich einem Hologrammbild, das das ultimative 3D-Bild darstellt, erzeugt werden.

Als Methode zur Implementierung einer Technik der DOF-Erweiterung gibt es die AR-Optik vom Pin-Spiegel-Array-Typ36,37. Die auf Stiftspiegeln basierende Technologie hat den Vorteil, dass sie ein kompaktes optisches System implementieren und die Augenbox erweitern kann. Die Verwendung des Stiftspiegel-Arrays hat jedoch auch den gegenteiligen Effekt, dass der DOF-Erweiterungseffekt verringert wird. Darüber hinaus wurden die HOE-Technologie38 und die DOF-Erweiterungstechnologie mit holographischer Netzhautprojektion39,40,41,42 untersucht. Diese Technologien zeigten die Möglichkeit, als kommerzialisierte Technologien eingesetzt zu werden, wenn holografische Display- oder HOE-Technologie in Zukunft ausgereift ist.

Wie von SMV vorgeschlagen, besteht die Möglichkeit einer Fokusanpassung, wenn zwei oder mehr Parallaxenbilder innerhalb des Pupillendurchmessers bereitgestellt werden. Vor dem Hintergrund dieser Technologieentwicklung kann die Kombination des Konzepts der Vollparallaxen-SMV-Technologie mit einer Methode zur Implementierung einer strahlenähnlichen Lichtform eine virtuelle Fokussierung und Nichtfokussierung erreichen und eine Möglichkeit sein, das Problem im Zusammenhang mit der 3D-Bildfokussierung zu lösen. Wenn darüber hinaus durch die Anpassung der Form des auf die Pupille einfallenden Lichts ein breiter DOF bereitgestellt werden kann, können theoretisch 3D-Bilder mit allem im Fokus erstellt werden. Da der Fokus in diesem Fall immer im Fokus ist, ist es möglich, ein 3D-Bild zu erzeugen, das frei von dem Fokusproblem im Zusammenhang mit der Fokussteuerung ist, indem nur eine Blickpunktinformation verwendet wird, ohne die SMV-Bedingung zu erfüllen. Ein solches 3D-Bild ohne Fokusproblem kann auf verschiedene Weise genutzt werden. Allerdings wurden die optischen Bedingungen für 3D-Anzeigen bei dieser Technik nicht systematisch im Hinblick auf die Einschränkungen bei der Erweiterung des DOF ​​entsprechend der Form des Lichts untersucht, das 3D-Bilder erzeugt26,29,43,44,45,46.

In dieser Forschung werden die Bedingungen für den DOF-Bereich, in dem der Beobachter den Fokus anpassen kann, unter Berücksichtigung der Eigenschaften geometrischer und diffraktiver Optik untersucht. Basierend auf diesen theoretischen Hintergründen, Simulationen und experimentellen Ergebnissen werden geometrische und diffraktive optische Bedingungen in Bezug auf den Tiefenbereich des fokussierbaren 3D-Bildes abgeleitet. In dieser optischen Struktur wurde die Korrelation zwischen Winkelauflösung und DOF-Ausdehnung abgeleitet, um die Grenzen des DOF ​​für jede Winkelauflösung zu untersuchen. Es wird eine Methode entwickelt, um einen Standard für den möglichen DOF-Bereich darzustellen, indem der Beugungseffekt und die geometrische Defokussierung unter Verwendung des Rayleigh-Kriteriums, dem Kriterium für die Auflösung im Fokusstatus, und des Strehl-Verhältnisses, das zur Bestimmung von Out verwendet werden kann, berücksichtigt werden -von-Fokus. Basierend auf dieser Studie wurden kommerziell anwendbare Bedingungen für die Winkelauflösung und die DOF-Erweiterung gefunden. Um diese Bedingungen umzusetzen, wird außerdem ein realistisches optisches System entwickelt, das auf NED-Displays vom AR-Typ anwendbar ist, und es werden Simulationen und experimentelle Überprüfungen der DOF-Erweiterung im optischen System durchgeführt. Diese optischen Bedingungen können auf AR- und VR-Optiken angewendet werden und können letztendlich auf den Entwurf eines optischen Systems angewendet werden, das den DOF einer 3D-Anzeige erweitert, um 3D-Bilder in einem großen Tiefenbereich anzuzeigen. Und die erweiterten DOF XR- oder 3D-Anzeigen können das VAC-Phänomen lindern.

Daher schlagen wir in diesem Artikel eine Methode zur Erstellung eines 3D-Bildes mit großem DOF vor, indem wir die realistische Struktur und die Fokustiefengrenze des optischen Systems bestimmen und verifizieren, dass eine erweiterte Fokustiefe durch experimentelle Reproduktion und Simulationsergebnisse des optischen Systems realisiert werden kann . Wir leiten zunächst die Bedingungen für die Erweiterung des DOF ​​ab, indem wir die Korrelation zwischen der Position einer Lichtquelle im 3D-Raum und der Breite des auf die Pupille einfallenden Lichts verwenden. Zweitens entwerfen wir die Struktur eines optischen Systems, das die Situation dieser geometrischen Bedingung umsetzen kann. Drittens wird durch Untersuchung des Beugungsphänomens des optischen Systems, das bei dieser geometrischen DOF-Erweiterung auftritt, der Betrag der Beugung aufgrund der DOF-Erweiterung berechnet. Unter Berücksichtigung der Korrelation zwischen der geometrischen DOF-Ausdehnung und der diffraktiven optischen DOF-Ausdehnung im entwickelten und entworfenen optischen System erhalten wir dann die Bedingungen für die Maximierung des DOF, aus denen wir praktische Bedingungen für die Umsetzbarkeit erreichen. Abschließend simulieren wir diese Bedingungen und verifizieren die Grundbedingungen einer realistischen DOF-Erweiterung, indem wir ein optisches System konstruieren, um sie zu testen.

Wenn das Licht jedes Pixels, aus dem ein 3D-Bild besteht, idealerweise als Lichtstrahl dargestellt werden kann, kann es unabhängig von der Brechkraft der Augenlinse immer einen tiefen Tiefenschärfebereich haben. Diese Situation kann jedoch in der natürlichen Umgebung nicht vorkommen. Licht, das aus einer vorgegebenen Tiefe kommt, hat beim Durchgang durch die Pupille eine bestimmte Breite. Unter der Bedingung, dass Licht, das durch die Pupille fällt, eine bestimmte Breite bildet, ist es daher notwendig, den DOF und seine Standardtiefe für Licht mit der Breite auf der Pupille zu untersuchen45,47,48. Wenn die Anfangstiefe der Lichtquelle, die eine Fokustiefe für den wie in Abb. 1 eingestellten Tiefenbereich haben soll, \({d}_{best}\) ist, dann ist die Tiefe des virtuellen Bildschirms zur Darstellung des 3D-Bildes \ ({d}_{best}\). Wenn nun ein Auge auf einen 3D-Bildpunkt in der Tiefe (\({d}_{n}\)) fokussiert, der näher als der virtuelle Bildschirm in der Tiefe (\({d}_{best}\)) ist, wird der Das Bild des 3D-Bildpunkts bei \({d}_{best}\) entsteht so nah wie \(\alpha \) vor der Netzhaut, ist also unscharf, da die Punktgröße von \({B}_{n }\) wird in der Netzhaut gebildet. Wenn andererseits ein Auge auf einen 3D-Bildpunkt in einer Tiefe (\({d}_{f}\)) fokussiert wird, die weiter entfernt ist als der virtuelle Bildschirm in einer Tiefe (\({d}_{best}\) ), entsteht das Bild an einer Position weiter als \(\beta \) hinter der Netzhaut und ist auch in der Netzhaut mit einer Punktgröße von \({B}_{f}\) unscharf. Wenn unter diesen Bedingungen die auf den DOF bezogene Punktgröße auf einen bestimmten spezifischen Wert festgelegt wird, kann die Starttiefe der Lichtquelle (\({d}_{best}\)) für den DOF-Bereich aus beidem bestimmt werden \({B}_{n}\) und \({B}_{f}\) müssen gleich dem ermittelten Wert sein.

Die Beziehung zwischen der Fokustiefe des Auges und der optimalen Tiefe (\({d}_{best}\)).

Wenn man Abb. 1 betrachtet, stellt man fest, dass \({D}_{best}\) eine Beziehung aus einem arithmetischen Mittel der Nahentfernungsdioptrie (\({D}_{n}\)) und der Ferne hat Distanzdiopter (\({D}_{f}\)) wie folgt:

Der DOF-Bereich \(\Delta D\) ist gegeben durch

Wenn Licht, das vom Bildpunkt (\({P}_{best}\)) auf dem virtuellen Bildschirm stammt, durch die Augenlinse geht, beträgt die Lichtbreite auf der Pupille, die dem Durchmesser des Lichtverteilungsbereichs auf der Pupille entspricht. wird als PD bezeichnet.

In Gl. (2) zeigt, dass der DOF-Bereich proportional zum Durchmesser der geometrischen Unschärfe in der Netzhaut ist, dh \({B}_{n}\) oder \({B}_{f}\), und umgekehrt proportional sowohl zum effektiven Netzhautabstand \(E/n\) von der Augenlinse zur Netzhaut als auch zur Lichtbreite vom objektseitigen Abbildungspunkt auf der Augenlinse, PD. Da der effektive Netzhautabstand jedoch ein fester Wert ist, kann daraus geschlossen werden, dass die PD reduziert werden muss, um den DOF-Bereich zu erweitern. \({B}_{n}\) oder \({B}_{f}\) kann durch den DOF-Standard des Auges bestimmt werden.

Geometrische optische Kriterien zur Bestimmung des DOF-Bereichs wurden im vorherigen Abschnitt beschrieben. Es besteht jedoch Bedarf an einem Entwurf einer optischen Struktur, der ein zweidimensionales Bild liefert, das in der Lage ist, diese Situation umzusetzen. Diese optische Struktur ermöglicht die Betrachtung des 2D-Bildes nur dann, wenn die Bedingungen für das Durchdringen eines bestimmten Bereichs der Pupille erfüllt sind. Da der DOF-Bereich außerdem umgekehrt proportional zur Größe des PD auf der Augenlinse ist, an dem die vom Abbildungspunkt erzeugten Lichtstrahlen ankommen, sollte eine Struktur vorhanden sein, in der das Licht vom Abbildungspunkt auf der Augenlinse gesammelt wird konstruiert. Selbst in dieser Konvergenzsituation des Lichts sollte das gesamte virtuelle Bild der Anzeige für das Auge sichtbar sein. Eine weitere Bedingung ist, dass das optische System so konfiguriert sein muss, dass das durch die Augenlinse tretende Licht bei einer bestimmten, oben berechneten optimalen Tiefe (\({D}_{best}\)) beginnen kann. Die Struktur des vorgeschlagenen optischen Systems zur Erfüllung dieser beiden Bedingungen wird in Abb. 2 vorgestellt. In dieser Struktur gelangt das von der Anzeige kommende Licht durch die erste Linsenöffnung, die der Lichtbreite (PD) auf der Augenlinse zugeordnet ist, und erzeugt ein Bild des Displays innerhalb der Brennweite des zweiten Objektivs.

Konzeptdiagramm, das die Grundstruktur des optischen Systemdesigns zeigt.

Durch Festlegen der Bedingungen der Abb. 2 und 3 schlagen wir ein optisches System vor, das PD und \({d}_{best}\)(= \({L}_{img}\)) gleichzeitig für den geometrisch optimalen DOF-Bereich bestimmen kann. Je schmaler die Breite des Lichts auf der Augenlinse (PD) ist, desto breiter wird der DOF-Bereich. Es ist jedoch zu beachten, dass ein optisches System mit einem engeren PD zwangsläufig das optische Beugungsphänomen verstärkt. Daher kann die Erweiterung des optimalen DOF-Bereichs nur dann erreicht werden, wenn diese beiden widersprüchlichen Bedingungen ordnungsgemäß kompromittiert werden.

Konzeptdiagramm zur Ableitung geometrischer Beziehungsvariablen in der entworfenen optischen Struktur.

In diesem Abschnitt wird entsprechend dem Bereich der geometrischen Freiheitsgrade die Beziehung zwischen Beugung und \(PD\) erläutert. Betrachten wir die Beugung, die im optischen System mit zwei Linsen und einer Augenlinse auftritt, das im vorherigen Abschnitt entworfen wurde. Wenn durch das optische System mit drei Linsen ein Bild in der Netzhaut erzeugt wird, kann gezeigt werden, dass die Größe der Airy-Scheibe durch Gleichung (1) gegeben ist. (3)32,41,49.

wobei \(\uplambda \) die Wellenlänge des in das Auge eintretenden Lichts darstellt und \({E}_{eff}\equiv E/n\) den effektiven Netzhautabstand darstellt, der der Netzhautabstand zwischen der Augenlinse und dem Auge ist Netzhaut geteilt durch Brechungsindex n. Wenn die Pupillengröße des Auges kleiner als \(PD\) ist, kann natürlich auch die Pupillengröße anstelle von \(PD\) verwendet werden. Daher kann der DOF-Bereich unter einer Bedingung definiert werden, bei der die Größe des geometrischen optischen Bildes (\({B}_{n}\) oder \({B}_{f})\) in der Netzhaut verschwimmt , gegeben durch Gl. (2) ist gleich der Beugungsgrenze, d. h. der Größe der Bildunschärfe aufgrund der Beugung, gegeben durch Gleichung (1). (3). Dann erhält man schließlich den DOF-Bereich als

Beachten Sie, dass zur Vereinfachung des Koeffizienten die Einheit Dioptrie für den DOF-Bereich (\(\Delta D\)), die Einheit \({\text{um}}\) für die Wellenlänge (\(\uplambda \ )) und die Einheit von \({\text{mm}}\) für \(PD\) werden in Gleichung verwendet. (4). Folglich wird festgestellt, dass Gl. (4) bedeutet, dass der DOF-Bereich nur umgekehrt proportional zum Quadrat von \(PD\) ist, unabhängig von der Struktur eines optischen Systems.

Um den DOF in AR-Optiken so weit wie möglich zu erweitern, wurde im vorherigen Abschnitt erläutert, dass der optimale Kompromiss zwischen den geometrischen und diffraktiven optischen Effekten des Bildes in der Netzhaut gemäß PD gefunden werden sollte. Genauer gesagt, wenn PD zunimmt, nimmt die diffraktive Unschärfe ab, wie in Gl. (3) aufgrund der Beugung in der Netzhaut, während die geometrische Unschärfe zunimmt. Dadurch kann überprüft werden, dass ein PD von ca. 1 mm dem optimalen Zustand entspricht. Für den PD der Bedingung B in Abb. 4a werden für den Fall, dass der Fokus der Augenlinse auf den DOF-Grenzen von 0D und 3D liegt, der Beugungsradius und der geometrische Fleckradius in der Netzhaut für den Bildpunkt von gleich Das virtuelle Bild wurde in 1,5D erstellt, wie in Abb. 4b dargestellt. Wenn das Auge auf die DOF-Grenze fokussiert ist, reduziert die PD-Größe für Bedingung A, die kleiner ist als die PD-Größe für Bedingung B, die maximale Auflösung des virtuellen Bildes um den Airy-Radius im Vergleich zur optimalen Bedingung B, sodass dies der Fall ist einen größeren Fleckradius als Bedingung B. Wenn das Auge auf die DOF-Grenze fokussiert ist, hat die PD-Größe für Bedingung C, die größer ist als die PD-Größe für Bedingung B, aufgrund des Effekts einen größeren Fleckradius als die für Bedingung B der geometrischen Optik. Infolgedessen wird die PD-Größe auf der Pupillenebene, für die der Airy-Radius aufgrund der Beugung mit dem geometrischen Punktradius übereinstimmt, zu einer wichtigen Bedingung für die Erweiterung des DOF-Bereichs.

Zusammenhang zwischen geometrischer und diffraktiver Defokussierung bei den Aperturweiten an der Pupille.

Dieser Radius von Abb. 4 basiert jedoch auf der Intensität der geometrischen und diffraktiven Lichtverteilung. Daher sollte auch MFT in Betracht gezogen werden. Daraus kann die Auflösungsgrenze des entsprechenden optischen Systems durch die Beugungsgrenze in der Referenztiefe (\({D}_{best}\)) bestimmt werden. Im folgenden Unterabschnitt werden spezifischere Bedingungen durch Simulation überprüft.

Es wird eine Methode entwickelt, um die PD-Größe und den umsetzbaren DOF-Bereich unter Berücksichtigung des Beugungseffekts und der geometrischen Defokussierung abzuleiten, indem das Rayleigh-Kriterium verwendet wird, das den Standard für die Auflösung im Fokusstatus darstellt, und das Strehl-Verhältnis, das für verwendet werden kann Bestimmung der Unschärfe. Nach dem Rayleigh-Kriterium ist das Minimum des optisch wahrnehmbaren Intervalls dann definiert, wenn zwei Punktbilder so weit entfernt sind wie der Airy-Radius (\(\uprho)\) in der Netzhaut, und in diesem Fall die Ortsfrequenz ist \(1/\uprho \)[lp/mm]. Gleichung (4) gibt den zulässigen DOF-Bereich basierend auf dem Airy-Radius bei Fokussierung an, der auf der \({d}_{best}\)-Tiefe basiert. In diesem Fall verschlechtert sich die Bildqualität in beiden Grenzen von \(\Delta D\) im Vergleich zur \({d}_{best}\)-Tiefe, was durch Berechnung des Kontrastverhältnisses in einem Linsensimulationsprogramm überprüft werden kann . Daher ist es im Hinblick auf die visuelle Erkennung erforderlich, eine Grenze festzulegen, bei der die Bildqualität im Vergleich zur Bildqualität in der Tiefe von \({d}_{best}\) nicht abnimmt. Obwohl für dieses Kriterium verschiedene Methoden in Betracht gezogen werden können, kann der Bereich der Aberration aufgrund der Defokussierung in der Augenlinse als DOF-Bereich bestimmt werden, indem die Viertelwellenlängenregel von Rayleigh angewendet wird, die üblicherweise in der Optik verwendet wird50,51. In diesem Fall ist der Koeffizient in Gl. (4) wird von 4,88 auf 4 geändert. Wenn sich der Augenfokus an der Grenzposition des DOF-Bereichs befindet, hat das Strehl-Verhältnis einen Wert von ungefähr 0,851,52,53. Daher legen wir in dieser Arbeit einen Bereich fest, in dem das Strehl-Verhältnis nach Rayleighs Viertelwellenlängenregel 0,8 oder höher beträgt, als einen DOF-Bereich, der als Fokusstatus betrachtet werden kann, ohne dass die Änderung im Bild erkannt wird54,55. Der auf dem Strehl-Verhältnis basierende DOF-Bereich ähnelt dem Phänomen, bei dem sich das Bild der Linse verschlechtert, und infolgedessen wird der DOF-Bereich im Vergleich zu dem auf der Grundlage der Größen des geometrischen Punkts und des eingestellten Bereichs verringert Luftige Scheibe. Durch Ändern des Koeffizienten von 4,88 auf 4 ergibt sich daher Gl. (4) kann geschrieben werden als

Zur Verifizierung wurde ein optisches AR-System mit einem DOF-Bereich von 3,0 D (Dioptrien) und einem HFOV von 35,3 Grad entwickelt. Darüber hinaus analysieren wir in einer quantitativen Methode die Qualität der virtuellen Bilder im entworfenen AR-Optiksystem mit einem vereinfachten Augenlinsenmodell. Die Konfiguration des AR-Optiksystems zur Überprüfung des DOF-Bereichs ist in Abb. 5 dargestellt. Spezifische Spezifikationen von Abb. 5 sind in Tabelle 1 aufgeführt.

AR-Optik kombiniert mit einem erweiterten DOF-Modul.

Das Simulationsergebnis, ob der DOF-Bereich durch Anpassen der PD im zuvor entworfenen optischen System effektiv gesteuert werden kann, ist in Abb. 6 dargestellt, wobei drei Farbwellenlängen (0,4861 µm, 0,5876 µm, 0,6563 µm) zum Vergleich mit dem Experiment verwendet werden und die MTF-Eigenschaften des Nullfelds für Rechteckwellen werden untersucht, da ein virtuelles Bild von einer Anzeige mit Pixeln stammt.

Rechteckwellen-MTF-Eigenschaften unter 4 Arten von PD-Bedingungen.

Die Winkelfrequenzen, die Linienpaaren (LPs) des virtuellen Bildes entsprechen, werden durch vertikale gepunktete Linien dargestellt, und der MTF-Wert (~ 0,14), der aus den maximalen und minimalen Modulationswerten in der Rayleigh-Kriteriumsbedingung für die angrenzende PSF berechnet wird, wird durch angezeigt die horizontale gepunktete rote Linie53. Die PD-Werte in der Simulation werden auf die PD-Größe eingestellt, in der der nach Gl. berechnete DOF-Bereich liegt. (5) sind 3D, 2D, 1,0D bzw. 0,26D. LP1 ist für das Ein-/Ausschalten eines Einheitspixels konfiguriert, LP2 ist für das Ein-/Ausschalten von zwei benachbarten Einheitspixeln konfiguriert, LP3 ist für das Ein-/Ausschalten von drei benachbarten Einheitspixeln konfiguriert und LP4 ist für das Ein-/Ausschalten von vier benachbarten Einheitspixeln konfiguriert Pixel. Wie in Abb. 6 dargestellt, nimmt die Auflösung ab, wenn die PD abnimmt, um den DOF-Bereich zu vergrößern. Für den PD von 0,89 mm, der dem DOF-Bereich von 3D entspricht, beträgt der MTF-Kontrast bei der Winkelfrequenz von 20 cpd für das LP1-Muster ungefähr 0,19, was ein ausreichend größerer Kontrastwert als die Bedingung des Rayleigh-Kriteriums ist. Wenn die Fokuseinstellungsposition des vereinfachten Augenmodells für jede PD-Bedingung vom besten Fokus (1,5 D) um einen Schritt von 0,1 D geändert wird, sind die Ergebnisse der Simulation der Änderung des Strehl-Verhältnisses der PSF in Abb. 7 dargestellt.

Strehl-Verhältnis-Eigenschaften des PSF entsprechend der Augenfokuskontrolle für jede PD-Bedingung.

Wie bereits erwähnt, entspricht der Fall, in dem das Strehl-Verhältnis der PSF größer als 0,8 ist, dem fokussierten Bereich. In Abb. 7 ist dargestellt, dass der Bereich, in dem das Strehl-Verhältnis für jede durch Berechnung festgelegte PD-Bedingung 0,8 oder höher beträgt, nahezu mit dem durch die Berechnung ermittelten DOF-Bereich übereinstimmt. Um die relevanten Eigenschaften indirekt zu bestätigen, ist das Simulationsergebnis für den Kontrastwert des LP1-Musters, das der höchsten Auflösung des virtuellen Bildes entspricht, in Abb. 8 dargestellt, wobei der Kontrastwert auf 1 normiert ist, um die Änderungsrate des zu vergleichen Kontrastwert für jede PD-Bedingung. Im Vergleich zum Strehl-Verhältnis für jede Fokusposition des Auges kann überprüft werden, dass der normalisierte Kontrastwert von 0,71 bis 0,77 dem Strehl-Verhältnis von 0,8 entspricht, obwohl es sich nicht für jede Bedingung um den gleichen Kontrastwert handelt. Der Grund dafür, dass diese nicht den exakt gleichen Wert, sondern einen bestimmten Bereich aufweisen, liegt darin, dass die Auflösung für jede PD-Bedingung unterschiedlich ist und die Empfindlichkeit des Kontrastwerts selbst bei demselben Wert des Strehl-Verhältnisses je nach Fokuseinstellung unterschiedlich ist.

Normalisierte Rechteckwellen-MTF-Eigenschaften von LP1-Mustern.

Die Eigenschaften für den Absolutwert des Kontrasts des LP1-Musters, das die höchste Auflösung des virtuellen Bildes darstellt, entsprechend der Fokuseinstellung sind in Abb. 9 dargestellt. In Abb. 9 ist auch der Fokussteuerbereich von dargestellt Das anhand des Rayleigh-Kriteriums erkannte LP1-Muster (Kontrastwert ~ 0,14) ist so konzipiert, dass es breiter ist als der DOF-Bereich, der auf dem zuvor definierten Kriterium des Strehl-Verhältnisses basiert.

Rechteckwellen-MTF-Eigenschaften von LP1-Mustern.

Das entworfene optische AR-System wird konstruiert und die experimentellen Ergebnisse werden quantitativ und qualitativ analysiert, indem eine Kamera mit fester Brennweite verwendet wird, die die virtuelle Bilderkennung des Auges ersetzt. Wie in Abb. 10 dargestellt, ist das AR-Optiksystem mit dem erweiterten DOF-Modul (EDOF) für die experimentelle Verifizierung gemäß den Spezifikationen in Tabelle 1 konfiguriert.

EDOF AR-Optiksystem zur Einstellung von Bildern und Bildern für das Experiment.

Abbildung 10a ist ein Messsystem zur quantitativen Auswertung. Für das MTF-Messexperiment werden die Bilder in Abb. 10c verwendet, in denen die Muster LP1, LP2, LP3 und LP4 auf der optischen Achse angeordnet sind, um den quantitativen MTF-Messwert zu erhalten. Darüber hinaus werden die Bilder für die qualitative Vergleichsauswertung des MTF-Musters gemäß den Bedingungen des DOF-Bereichs in den Bildern von Abb. 10d, e verwendet, in denen LP1–LP4-Muster angeordnet sind.

Um festzustellen, ob der durch die Berechnung für jede Blendenbedingung ermittelte DOF-Bereich experimentell validiert ist, wird der Kontrastwert anhand der aufgenommenen Bilder experimentell gemessen, indem die Fokussteuerung der Kamera in Einheiten von 0,1 D für die vier räumlichen Frequenzen des virtuellen Bildes geändert wird . Die Simulationsergebnisse des entworfenen optischen Systems werden in Abb. 11 verglichen.

Vergleich der Simulation der Kontrastwerteigenschaften und der experimentellen Ergebnisse gemäß der Fokussteuerung für jede Blendenbedingung. (a) PD 0,885 mm, (b) PD 1,084 mm, (c) PD 1,533 mm, (d) PD 3 mm.

Die Simulations- und Versuchsergebnisse der Kontrastwerte entsprechend der Fokusposition der Kamera für jede der vier Ortsfrequenzen gemäß PD stimmen unter der PD-Bedingung innerhalb von 2 mm einigermaßen überein. Abgesehen von der Bedingung, dass PD 3 mm beträgt, zeigt sich, dass der Kontrast beim besten Fokus in einem weiten Fokusbereich erhalten bleibt, wenn PD abnimmt, wie durch Simulation vorhergesagt.

Abbildung 12 stellt den Vergleich der Ergebnisse dar, die durch Normalisierung der Änderung des Kontrastwerts entsprechend der Fokuseinstellung in der Simulation und dem Experiment von Abbildung 11 erhalten wurden. In diesem Experiment kann der Wert des Strehl-Verhältnisses nicht als logischer Beweis zur Bestimmung des DOF ​​dienen direkt gemessen. Es wurde jedoch experimentell gezeigt, dass der DOF-Bereich entsprechend der PD-Größe von einem Bereich aus angepasst werden kann, in dem der normalisierte Kontrastwert, der dem Wert entspricht, geändert wird.

Vergleich der normalisierten Kontrastwertcharakteristiksimulation und der experimentellen Ergebnisse entsprechend der Fokussteuerung für jede Blendenbedingung. (a) PD 0,885 mm, (b) PD 1,084 mm, (c) PD 1,533 mm, (d) PD 3 mm.

Das MTF-Muster von LP1 und LP2 unter den Ergebnissen, die das Bild in Abb. 10d aufgenommen haben, wobei die Brennweite der Kamera im entworfenen optischen AR-System zur Überprüfung angepasst wurde, ist in Abb. 13 dargestellt, wo die qualitativen Ergebnisse der aufgenommenen Bilder für den DOF-Bereich dargestellt sind werden entsprechend der PD-Größe angezeigt. In den Fällen einer PD von 0,885 mm für die DOF-Bedingung von 3,0 D, einer PD von 1,084 mm für die DOF-Bedingung von 2,0 D, einer PD von 1,533 mm für die DOF-Bedingung von 1,0 D und einer PD von 3 mm für Unter der DOF-Bedingung von 0,26 D werden die MTF-Musterbilder durch Anpassen der Brennweite der Kamera verglichen. Im Bild für jede Fokustiefenbedingung in Abb. 13 zeigen die Bilder im gelben Hintergrund die Bilder innerhalb des DOF-Bereichs basierend auf dem Standard-Strehl-Verhältnis an, und die Bilder im blauen Hintergrund zeigen an, dass die Bilder die Bedingung des Rayleigh-Kriteriums erfüllen. Wenn der PD 0,885 mm beträgt, kommt es zu keiner signifikanten Verschlechterung der Bildqualität im Vergleich zum optimalen Bild, selbst wenn sich der Fokus innerhalb von ± 1,5 D vom besten Fokus (1,5 D) ändert, was dem DOF-Bereich basierend auf dem Standard-Strehl-Verhältnis entspricht Daher wird erwartet, dass die durch die Inkonsistenz zwischen Konvergenz und Fokuseinstellung der Augen verursachte VAC gemildert werden kann. Bei einem PD von 1,084 mm zeigt sich, dass die Verschlechterung der Bildqualität im Vergleich zum optimalen Bild im ± 0,9D-Bereich des besten Fokus (1,5D), der 0,2D kleiner ist als der, nicht wesentlich spürbar ist DOF-Bereich basierend auf dem Standard des Strehl-Verhältnisses. Wenn der PD 1,53 mm beträgt, ist die Verschlechterung der Bildqualität im Vergleich zum optimalen Bild im Bereich von ± 0,4 D vom besten Fokus (1,5 D), dem DOF-Bereich basierend auf dem Standard-Strehl-Verhältnis, kaum spürbar. Das LP1-Muster im Fokusanpassungsbereich zwischen + 0,9 D und – 0,8 D vom besten Fokus (1,5 D) bietet einen höheren Kontrast als das Rayleigh-Kriterium. Die Bedingungen eines herkömmlichen optischen AR-Systems ähneln denen, bei denen die PD mehr als 3 mm beträgt. Die Verschlechterung der Bildqualität ist bei etwa ± 0,2D der besten Fokusposition im Vergleich zur Bildqualität bei der optimalen Fokusposition kaum spürbar, oberhalb dieser Position verschlechtert sich die Bildqualität jedoch rapide.

MTF-Muster ergeben sich für jede PD-Bedingung entsprechend der Fokuseinstellung.

Das optische System zur Durchführung der qualitativen Analyse ist in Abb. 10b dargestellt. In der Versuchsanordnung von 3,0D bis 0,3D werden reale Objekte platziert und 0D (Unendliche Entfernung) wird als geschätzte Fokustiefe unter Verwendung des Objektivfokussierungsdrehwinkels der Kamera eingestellt. Darüber hinaus wird das Bild aus Abb. 10e für das virtuelle Bild verwendet. Die im Kreis angeordneten Buchstaben werden auf die Größe eingestellt, die dem LP4-Muster entspricht, und der erste in horizontaler Richtung angeordnete Satz wird auf die Größe eingestellt, die dem LP3-Muster entspricht. Die LP1-, LP2- und LP3-Muster werden zum Vergleich mit der quantitativen Analyse in die zweite Zeile eingefügt. Ein Vergleich zwischen aufgenommenen Bildern des virtuellen Bildes und realen Objekten entsprechend der Fokustiefeneinstellung ist in Abb. 14 für die Bedingung dargestellt, dass die PDs 3 mm und 0,885 mm betragen. In Abb. 14 befinden sich links die Bilder für den PD-Zustand von 3 mm, der dem Zustand einer herkömmlichen AR-Brille entspricht, und rechts die Bilder für den PD-Zustand von 0,885 mm, der dem DOF-Bereich von 3,0 D entspricht. Bei der herkömmlichen PD-Bedingung von 3 mm, wie sie in der quantitativen Auswertung analysiert wurde, kann überprüft werden, dass sich das virtuelle Bild des horizontalen Textes ab der Fokustiefe ± 1,0 D von der optimalen Fokustiefe entfernt verschlechtert. Dieses Ergebnis deutet auf das Phänomen des niedrigen DOF hin, das im Fall des herkömmlichen optischen AR-Systems auftreten kann. Als qualitatives Ergebnis des Nachweises, dass der DOF durch Anpassen der PD-Größe an der Position der Augenpupille erweitert werden kann, wird in diesem Artikel auf der rechten Seite das typische Ergebnis für die PD-Größe angezeigt, die dem DOF-Bereich von 3,0 D entspricht Abb. 14. Im Gegensatz zum Ergebnis auf der linken Seite in Abb. 14 kann festgestellt werden, dass das LP1-Muster mit 20 cpd auflösbar ist, selbst wenn der Fokus von 1,5 D auf ± 1,5 D eingestellt wird. Um den Unterschied in der Bildqualität des virtuellen Bildes in der Einstellungsbedingung, wenn der DOF 3D ist, und den herkömmlichen Bedingungen entsprechend einer solchen Fokuseinstellung deutlich zu zeigen, sind die Fotos in der mittleren Reihe von Abb. 14 vergrößerte Fotos des Textteils virtuelles Bild.

Vergleich von virtuellem Bild und realem Objekt gemäß Fokuseinstellung bei PD 3 mm und PD 0,885 mm. Konzentrieren Sie sich auf (a) 0,0D, (b) 0,5D, (c) 1,5D, (d) 2,5D und (e) 3,0D.

(Qualitative DOF-Bereiche für den linken und rechten Teil von Abb. 14 finden Sie in den Zusatzvideos S1 und S2).

In Bezug auf die monokulare Fokussierung, die einer der wichtigen Faktoren bei der Umsetzung einer 3D-Darstellung ist, werden die Bedingungen für die Erweiterung des DOF ​​abgeleitet. Wenn diese Grundbedingungen im SMV-Verfahren vom Vollparallaxentyp umgesetzt werden, kann die Fokuseinstellung künstlich simuliert werden, sodass ein hologrammähnliches Bild realisiert werden kann. Es ist auch möglich, 3D-Anzeigen mit vollem Fokus zu entwickeln, indem nur ein einziges Parallaxenbild mit einem breiten DOF-Zustand auf ein einzelnes Auge angewendet wird. In der Praxis lässt sich ein großer DOF leichter in einem engen Betrachtungsbereich realisieren, beispielsweise bei einem augennahen Display. Aus diesem Grund wurde es zunächst auf das optische AR-System angewendet, um einen breiten DOF mit einem Bereich von 3,0 Dioptrien zu implementieren. Durch die Einführung des Rayleigh-Kriteriums und des Standards des Strehl-Verhältnisses wurde bestätigt, dass der DOF-Bereich als geeigneter Standard verwendet werden kann. Durch die Kombination des optischen AR-Systems mit dem erweiterten DOF-Modul, das den breiten DOF in diesem Artikel bereitstellt, wurde gezeigt, dass das FOV unter Berücksichtigung des Beugungseffekts und des geometrischen Defokuseffekts bestimmt wird und der DOF-Bereich und die Auflösung angepasst werden können entsprechend der PD und der Größe des Konvergenzbereichs in der Augenpupillenebene. Es hat sich auch gezeigt, dass der Effekt der Verbesserung des Auflösungsvermögens durch Anpassen der PD entsprechend der Situation, in der das virtuelle Bild bereitgestellt wird, erzielt werden kann. Wenn diese Eigenschaften richtig genutzt werden, ist es möglich, in verschiedenen XR-Anwendungen einen großen DOF und hochauflösende virtuelle Bilder bereitzustellen. Es könnte ein optischer Standard vorgestellt werden, der komfortable 3D-Bilder ohne VAC liefert. Daher wird erwartet, dass diese Ergebnisse künftig auch bei der optischen Gestaltung und Umsetzung brillenloser 3D-Displays genutzt werden können. Darüber hinaus werden in zukünftigen Studien die DOF-Einschränkung aufgrund der Beugung, die die breite Anwendung der DOF-Erweiterung behindert, und die Frage, wie der Eye-Box-Bereich vergrößert werden kann36,38,56,57, wichtige Themen sein.

In Abb. 5 werden zwei achromatische FL-Linsen mit 20 mm verwendet, um die geometrische Aberration und die Farbfehler zu minimieren. Darüber hinaus wird die Größe der PD durch die Einstellung der Irisblende gesteuert, die sich in der Mitte der beiden achromatischen Linsen befindet. Dieses optische System in Kombination mit dem Display ist das EDOF-Modul. Das Bild des Displays durchläuft das EDOF-Modul und vor der AR-Optik wird ein Zwischenbild erzeugt. Anschließend durchläuft dieses Zwischenbild das optische AR-System, um einen konvergierenden Bereich auf der Pupillenebene des Auges zu bilden und schließlich ein Bild auf der Netzhaut zu erzeugen. Das AR-Optiksystem ist ein AR-Optiksystem vom Vogelbadtyp, das aus einem transreflektiven Konkavspiegel und einem flachen Strahlteiler besteht. Der HFOV und der Augenabstand im entworfenen optischen AR-System betragen 35,3 Grad bzw. 19,1 mm, wie in Abb. 5 und Tabelle 1 dargestellt. Dabei beträgt das virtuelle Bild, das von der Augenposition aus gesehen werden kann, 57,7 % des FHD Anzeigebereich. Die optimale Tiefe der virtuellen Bildebene des optischen Systems ist auf 1,5 Dioptrien ausgelegt. Die Größe der Irisblende wird angepasst, um die PD-Größe auf der Pupillenebene des Auges zu verändern. Der DOF-Bereich ist in der Tabelle aufgeführt. 1 kann entsprechend der PD-Größe angepasst werden. Das in der Simulation verwendete vereinfachte Augenlinsenmodell besteht aus einer einzelnen paraxialen Linse mit einer Brennweite von 16 mm, also etwa 60 Dioptrien, was der äquivalenten Stärke der Augenlinse entspricht. Es ist so konfiguriert, dass es die Position der Bildebene entsprechend der Fokustiefeneinstellung58 anpasst.

Abbildung 10a ist ein Messsystem zur quantitativen Auswertung, bei dem die Kamera (Modell acA2500-14 µm) mit einem F 16 mm Objektiv (Nr. 59870) von Edmund Optics und einem 1/2,5″ CMOS-Sensor von Basler verwendet wird. Der Kamerasensor ist mit einer Pixelgröße von 2,2 µm ausgewählt, um die Eigenschaften des Auges widerzuspiegeln. Die Blendenbedingungen werden auf PD-Werte auf der Pupille des Auges eingestellt, die den DOF-Erweiterungen 3,0D, 2,0D, 1,0D und 0,26D entsprechen. Im Experiment für diese Bedingungen wurde die optimale Fokustiefe auf 1,5 D eingestellt. Für das DOF-Erweiterungsexperiment, bei dem die Fokuseinstellungsposition der Kamera in Einheiten von 0,1 D geändert wird, werden die MTF-Musterbilder von der Kamera erfasst. Darüber hinaus werden für das MTF-Messexperiment die Bilder in Abb. 10c, in denen die Muster LP1, LP2, LP3 und LP4 auf der optischen Achse angeordnet sind, verwendet, um den quantitativen MTF-Messwert und die Kontrastwerte zu erhalten wird aus den Maximal- und Minimalwerten für jedes Muster berechnet. Darüber hinaus werden die Bilder für die qualitative Vergleichsauswertung des MTF-Musters gemäß den Bedingungen des DOF-Bereichs in den Bildern von Abb. 10d, e verwendet, in denen LP1–LP4-Muster angeordnet sind.

Die während der aktuellen Studie verwendeten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Okoshi, T. Three Dimensional Imaging Techniques (Academic, 1976).

Google Scholar

Lueder, E. 3D-Displays (Wiley, 2012).

Google Scholar

Sandin, DJ et al. Das autostereoskopische Virtual-Reality-Display Varrier TM. ACM Trans. Graph. 24(3), 894–903 (2005).

Artikel Google Scholar

Kim, S.-K., Yoon, K.-H., Yoon, SK & Ju, H. Parallaxenbarrieretechnik zur Verbesserung der Bildqualität in einem autostereoskopischen 3D-Display. Opt. Express 23(10), 13230–13244 (2015).

Artikel ADS CAS PubMed Google Scholar

Kim, SK, Yoon, KH, Yoon, SK & Ju, H. Defragmentierte bildbasierte autostereoskopische 3D-Displays mit dynamischer Augenverfolgung. Opt. Komm. 357, 185–192 (2015).

Artikel ADS CAS Google Scholar

Kang, M.-K., Nguyen, H.-P., Kang, D., Park, S.-G. & Kim, S.-K. Adaptiver Betrachtungsabstand in Super-Multi-View-Displays mit aperiodischer 3D-Pixelposition und dynamischen Ansichtsindizes. Opt. Express 26(16), 20661–20679 (2018).

Artikel ADS Google Scholar

Dodgson, NA Autostereoskopische 3D-Displays. IEEE Comput. Soc. 38, 31–36 (2005).

Artikel Google Scholar

Yoshihiro, K., Hiroshi, Y. & Toshio, H. Hologrammartige Videobilder durch stereoskopische Anzeige mit 45 Ansichten. Proz. SPIE 3012, 154–166 (1997).

Artikel Google Scholar

Takaki, Y. & Nago, N. Mehrfachprojektion von Lentikulardisplays zum Aufbau eines Super-Multiview-Displays mit 256 Ansichten. Opt. Express 18(9), 8824–8835 (2010).

Artikel ADS PubMed Google Scholar

Hoshino, H., Okano, F., Isono, H. & Yuyama, I. Analyse der Auflösungsbeschränkung der Integralfotografie. J. Opt. Soc. Bin. A 15(8), 2059–2065 (1998).

Artikel ADS Google Scholar

Sohn, J.-Y., Sohn, W.-H., Kim, S.-K., Lee, K.-H. & Javidi, B. Dreidimensionale Bildgebung zur Schaffung realitätsähnlicher Umgebungen. Proz. IEEE 101(1), 190–205 (2012).

Artikel Google Scholar

Campbell, FW Die Schärfentiefe des menschlichen Auges. J. Mod. Opt. 4(4), 157–164 (1957).

Google Scholar

Lambooij, M. & Jsselsteijn, W. Visuelle Beschwerden und visuelle Ermüdung stereoskopischer Displays: Eine Übersicht. J. Imaging Sci. Technol. 53(3), 030201 (2009).

Artikel Google Scholar

Hoffman, DM, Girshick, AR, Akeley, K. & Banks, MS Vergence-Akkommodationskonflikte beeinträchtigen die Sehleistung und verursachen visuelle Ermüdung. J. Vis. 8(3), 33 (2008).

Artikel Google Scholar

Huebschman, ML, Munjuluri, B. & Garner, HR Dynamische holografische 3D-Bildprojektion. Opt. Express 11(5), 437–445 (2003).

Artikel ADS PubMed Google Scholar

An, J. et al. Holografisches Videodisplay mit schlankem Panel. Nat. Komm. 11, 5568 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Blundell, B. & Schwartz, A. Volumetrische dreidimensionale Anzeigesysteme (Wiley-IEEE Press, 1999).

Google Scholar

Downing, E., Hesselink, L., Ralston, J. & Macfarlanem, R. Ein dreifarbiges, dreidimensionales Festkörperdisplay. Wissenschaft. Res. 273, 1185–1189 (1996).

CAS Google Scholar

Miyazaki, D., Shiba, K., Sotsuka, K. & Matsushita, K. Volumetrisches Anzeigesystem basierend auf dreidimensionalem Scannen eines geneigten optischen Bildes. Opt. Express 14(26), 12760–12769 (2006).

Artikel ADS PubMed Google Scholar

Kramida, G. Lösung des Vergenz-Akkommodations-Konflikts in Head-Mounted-Displays. IEEE TVCG 22(7), 1912–1931 (2016).

PubMed Google Scholar

Matsuda, N., Fix, A. & Lanman, D. Fokusflächenanzeigen. ACM Trans. Graph. 36(4), 86 (2017).

Artikel Google Scholar

Hua, H. Ermöglichen von Fokushinweisen in Head-Mounted-Displays. Proz. IEEE 105(5), 805–824 (2017).

Artikel Google Scholar

Maimone, A. et al. Pinlight-Displays: Augmented-Reality-Brillen mit großem Sichtfeld und defokussierten Punktlichtquellen. ACM Trans. Graph. 33(4), 1–11 (2014).

Artikel Google Scholar

Ueno, T. & Takaki, Y. Super-Multi-View-Near-Eye-Display zur Lösung des Vergenz-Akkommodations-Konflikts. Opt. Express 26(23), 30703–30715 (2018).

Artikel ADS PubMed Google Scholar

Huang, F.-C. Das Lichtfeldstereoskop ermöglicht immersive Computergrafiken über faktorisierte augennahe Lichtfeldanzeigen mit Fokushinweisen. ACM Trans. Graph. 34(4), 1–12 (2015).

Google Scholar

Huang, H. & Hua, H. Auswirkungen der Strahlpositionsabtastung auf die visuellen Reaktionen von 3D-Lichtfeldanzeigen. Opt. Express 27(7), 9343–9360 (2019).

Artikel ADS PubMed Google Scholar

Liu, S., Hua, H. & Cheng, D. Ein neuartiger Prototyp für ein optisches, durchsichtiges, am Kopf montiertes Display mit adressierbaren Fokushinweisen. IEEE Trans. Vis. Berechnen. Graph. 16(3), 181–193 (2010).

Google Scholar

Lee, S. et al. Tomographische augennahe Displays. Nat. Komm. 10, 2497 (2019).

Artikel ADS PubMed PubMed Central Google Scholar

Kim, S.-K., Kim, D.-W., Kwon, YM & Son, J.-Y. Bewertung des monokularen Tiefenhinweis in 3D-Anzeigen. Opt. Express 16(26), 21415–21422 (2008).

Artikel ADS PubMed Google Scholar

Kim, S.-B. & Park, J.-H. Optisches, durchsichtiges Maxwellsches Near-to-Eye-Display mit vergrößerter Eyebox. Opt. Lette. 43(4), 767–770 (2018).

Artikel ADS PubMed Google Scholar

Do, H., Kim, YM & Min, S.-W. Fokusfreies, am Kopf montiertes Display basierend auf der Maxwellschen Sicht mit Retroreflektorfilm. Appl. Opt. 58(11), 2882–2889 (2019).

Artikel ADS PubMed Google Scholar

Jang, C. et al. Retinal 3D: Augmented-Reality-Near-Eye-Darstellung mittels Pupillenverfolgungs-Lichtfeldprojektion auf der Netzhaut. ACM Trans. Graph. 36(6), 1–13 (2017).

Artikel Google Scholar

Westheimer, G. Die Maxwellsche Sichtweise. Vis. Res. 6, 669–682 (1966).

Artikel CAS PubMed Google Scholar

Kim, D.-W., Kwon, Y.-M., Park, Q.-H. & Kim, S.-K. Analyse eines Multifokus-Anzeigesystems vom Head-Mounted-Display-Typ unter Verwendung eines Laser-Scanning-Verfahrens. Opt. Ing. 50(3), 21415–21422 (2011).

Google Scholar

Kim, S.-K., Kim, E.-H. & Kim, D.-W. Vollparallaxes dreidimensionales Multifokus-Display mit einer schrägen Lichtquellenanordnung. Opt. Ing. 50(11), 114001 (2011).

Artikel ADS Google Scholar

Zhang, Q. et al. Entwurf, Analyse und Optimierung einer augennahen Anzeige vom Wellenleitertyp unter Verwendung eines Stiftspiegel-Arrays und eines konkaven Reflektors. Opt. Express 30(18), 32208–32220 (2022).

Artikel Google Scholar

Park, S. Optische durchsichtige Augmented- und Mixed-Reality-Kombinatoren auf Basis von Kunststoffoptiken. Inf. Anzeige 37(4), 6–11 (2021).

Artikel MathSciNet Google Scholar

Choi, M.-H., Shin, K.-S., Jang, J., Han, W. & Park, J.-H. Wellenleiter-Maxwellian-Near-Eye-Display mit einem holographischen optischen Elementarray mit Stiftspiegel. Opt. Lette. 47(2), 405–408 (2022).

Artikel ADS PubMed Google Scholar

Wang, Z. et al. Linsenloses holographisches Netzhautprojektionsdisplay nur mit Phase basierend auf dem Fehlerdiffusionsalgorithmus. Opt. Express 30(26), 46450–46459 (2022).

Artikel ADS PubMed Google Scholar

Song, W., Li, Opt. Express 29(6), 8098–8107 (2021).

Artikel ADS PubMed Google Scholar

Takaki, Y. & Fujimoto, N. Flexible Netzhautbilderzeugung durch holografische Maxwellian-View-Anzeige. Opt. Express 26(18), 22985–22999 (2018).

Artikel ADS PubMed Google Scholar

Lee, JS, Kim, YK, Lee, MY & Won, YH Verbesserte durchsichtige augennahe Anzeige unter Verwendung von Zeitmultiplex einer Maxwellschen Ansicht und einer holografischen Anzeige. Opt. Express 27(2), 689–701 (2019).

Artikel ADS PubMed Google Scholar

Westheimer, G. Netzhautlichtverteilung für kreisförmige Aperturen in der Maxwellschen Ansicht. J. Opt. Soc. Bin. 49(1), 41–44 (1959).

Artikel ADS CAS PubMed Google Scholar

Jacobs, RJ, Bailey, IL & Bullimore, MA Künstliche Pupillen und Maxwellsche Sichtweise. Appl. Opt. 31(19), 3668–3677 (1992).

Artikel ADS CAS PubMed Google Scholar

Zalevsky, Z. Bildgebung mit erweiterter Tiefenschärfe: Ein Rückblick. SPIE Rev. Soc. Foto-Opt. Instrument. Ing. 1, 018001 (2010).

Google Scholar

Zhao, J., Opt. Express 27(24), 34582–34592 (2019).

Artikel ADS PubMed Google Scholar

Havarn, SNV & Hosek, J. Unterschiedliche Sicht auf das Design beugungsbegrenzter Abbildungsoptiken. J. Opt. Soc. Bin. A 40(1), 149–154 (2023).

Artikel ADS Google Scholar

Miller, J. Tiefenschärfe des menschlichen Auges: Theorie und klinische Implikationen. Überleben. Ophthalmol. 51(1), 75–85 (2006).

Artikel Google Scholar

Goodman, JW Einführung in die Fourier-Optik (MacGraw Hill, 1996).

Google Scholar

Charman, WN Optik des Auges. Im Handbook of Optics Vol. 1 (Hrsg. Charman, WN) 26–27 (MacGraw Hill, 1995).

Google Scholar

Geary, JM Einführung in das Linsendesign 370–375 (Willmann-Bell, 2002).

Google Scholar

Smith, WJ Modern Optical Engineering 2. Auflage, 153 (McGraw-Hill, 1991).

Google Scholar

Fischer, R. & Tadic, B. Optisches Systemdesign (McGraw Hill Professional, 2000).

Google Scholar

Sinzinger, S. & Jahns, J. Microoptics (Wiley, 2006).

Google Scholar

Török, P. & Kao, F.-J. Optische Bildgebung und Mikroskopie: Techniken und fortschrittliche Systeme (Springer, 2013).

Google Scholar

Kim, SK & Park, S. Vollparallaxe dreidimensionale Multifokus-Anzeige. US-Patent, Nr. US 10,666,930 B2 (2020).

Kim, SK Near-Eye-Anzeigegerät. US-Patent, Pub. Nr. US 2023/0048195 A1 (2023).

Smith, G. & Atchison, DA The Eye and Visual Optical Instruments 790 (Cambridge University Press, 1997).

Buchen Sie Google Scholar

Referenzen herunterladen

Diese Arbeit wurde vom institutionellen Programm des Korea Institute of Science and Technology (KIST) (Projekt Nr. 2E31591) unterstützt.

Zentrum für künstliche Intelligenz, Korea Institute of Science and Technology, Seoul, 136-791, Südkorea

Sung Kyu Kim & Ki-Hyuk Yoon

Fachbereich Physik, Seoul Science High School, Seoul, 03066, Südkorea

Yongjoon Kwon

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

SKK entwickelte den Ansatz für die logische Grenze und das Konzept der optischen Struktur der DOF-Erweiterung, und K.-HY führte die Simulationen durch und führte die Experimente durch. YK analysierte den Beugungseffekt des optischen Systems.

Korrespondenz mit Sung Kyu Kim.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Zusatzvideo 1.

Zusatzvideo 2.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Kim, SK, Kwon, Y. & Yoon, KH. Erweiterte Schärfentiefe in Augmented Reality. Sci Rep 13, 8786 (2023). https://doi.org/10.1038/s41598-023-35819-9

Zitat herunterladen

Eingegangen: 27. Januar 2023

Angenommen: 24. Mai 2023

Veröffentlicht: 31. Mai 2023

DOI: https://doi.org/10.1038/s41598-023-35819-9

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE