"Lensa Komputasional" CMU Hancurkan Batasan Fokus, Tangkap Semuanya dengan Detail Tajam

Tim Editorial BigGo
"Lensa Komputasional" CMU Hancurkan Batasan Fokus, Tangkap Semuanya dengan Detail Tajam

Sejak kamera pertama kali ada, fotografer telah terikat oleh batasan optik mendasar: sebuah lensa hanya dapat membawa satu bidang jarak ke dalam fokus sempurna pada satu waktu. Prinsip ini, yang mencerminkan mata manusia, memaksa pilihan antara latar depan dan latar belakang, seringkali mengorbankan detail untuk kedalaman artistik. Kini, para peneliti di Carnegie Mellon University telah mengungkap sistem kamera eksperimental yang berjanji untuk menulis ulang aturan main ini. Dengan menggabungkan optik canggih dan kekuatan komputasi, teknologi "autofokus bervariasi spasial" mereka dapat secara bersamaan memfokuskan pada banyak objek pada jarak yang berbeda, menangkap seluruh adegan dengan kejelasan yang belum pernah ada sebelumnya. Terobosan ini, meski belum tersedia di tangan konsumen, mengisyaratkan masa depan di mana kamera, dari ponsel pintar hingga instrumen ilmiah, melihat dunia dengan cara yang sama sekali baru.

Inovasi Inti: Lensa Komputasional

Inti dari terobosan ini adalah apa yang disebut tim CMU sebagai "lensa komputasional". Ini bukanlah sepotong kaca tunggal, melainkan sistem hibrida yang canggih. Sistem ini dibangun di atas lensa Lohmann—konfigurasi yang melibatkan dua lensa kubik melengkung khusus yang saling bergeser untuk menyetel fokus. Ini digabungkan dengan modulator cahaya spasial fase-saja, sebuah perangkat yang dapat mengontrol secara presisi bagaimana cahaya membelok pada tingkat piksel individual. Bersama-sama, komponen ini memungkinkan sistem untuk memanipulasi cahaya secara bervariasi spasial, artinya bagian-bagian berbeda dari sensor gambar dapat difokuskan pada kedalaman yang sama sekali berbeda secara bersamaan. Associate professor Matthew O'Toole menyamakan efeknya dengan memberikan "setiap piksel lensa kecilnya sendiri yang dapat disesuaikan," sebuah deskripsi yang menangkap pergeseran paradigma dari fokus seragam ke fokus yang dapat diprogram.

Komponen Teknologi Kunci:

  • Lensa Komputasional: Sistem optik-komputasional hibrida.
  • Lensa Lohmann: Dua lensa melengkung dan kubik yang bergeser untuk menyetel fokus.
  • Modulator Cahaya Spasial Fase-Only: Mengontrol pembelokan cahaya di setiap piksel.
  • Metode Autofokus: Gabungan Contrast-Detection (CDAF) untuk analisis wilayah dan Phase-Detection (PDAF) untuk kecepatan dan pelacakan.
  • Kinerja: Mampu menangkap gambar terfokus hingga 21 frame per detik.

Cara Kerja Sistem Autofokus Cerdas

Membuat fokus yang dapat diprogram ini menjadi praktis memerlukan sistem autofokus yang cerdas. Para peneliti CMU dengan cerdik menggabungkan dua metode autofokus yang sudah mapan untuk menggerakkan lensa komputasional mereka. Pertama, sistem menggunakan Contrast-Detection Autofocus (CDAF) untuk menganalisis adegan. Sistem membagi gambar menjadi wilayah, atau "superpiksel," dan secara independen menentukan jarak fokus yang memaksimalkan ketajaman untuk masing-masing wilayah. Ini menciptakan peta detail tentang di mana fokus harus diterapkan. Kemudian, Phase-Detection Autofocus (PDAF) mengambil alih. Menggunakan sensor dual-piksel, PDAF memberikan umpan balik cepat tentang apakah subjek dalam fokus dan arah tepat untuk menyesuaikan, memungkinkan sistem untuk melacak dan mempertahankan fokus pada elemen yang bergerak. Pendekatan hibrida ini memungkinkan kamera eksperimental untuk menangkap gambar dengan fokus sempurna pada kecepatan hingga 21 frame per detik, membuktikan konsep ini bekerja untuk adegan dinamis, bukan hanya bidikan statis.

Aplikasi Potensial di Luar Fotografi

Meskipun implikasi paling langsung adalah untuk fotografi—memungkinkan segala sesuatu mulai dari bunga latar depan lanskap hingga gunung jauh menjadi tajam—para peneliti membayangkan dampak yang jauh lebih luas. Dalam mikroskopi, teknologi ini dapat memungkinkan ilmuwan untuk melihat beberapa lapisan sampel biologis dalam fokus sekaligus, mempercepat analisis dan penemuan. Untuk realitas virtual dan augmented, ini dapat menghasilkan petunjuk kedalaman yang lebih hidup, mengurangi ketegangan mata dan meningkatkan imersi. Mungkin yang paling kritis, kendaraan otonom dan robotika dapat menggunakan sistem seperti itu untuk melihat lingkungan mereka dengan "kejelasan yang belum pernah ada sebelumnya," secara bersamaan memfokuskan pada pejalan kaki di dekatnya, lampu lalu lintas jarak menengah, dan rambu jalan jauh tanpa ada blur, meningkatkan keamanan dan algoritma pengambilan keputusan.

Area Aplikasi Potensial:

  • Fotografi: Fokus seluruh adegan, pengaburan selektif, simulasi tilt-shift.
  • Mikroskopi: Fokus sampel multi-lapis secara bersamaan.
  • Virtual/Augmented Reality: Persepsi kedalaman yang lebih baik dan realistis.
  • Sistem Otonom: Persepsi lingkungan yang ditingkatkan untuk kendaraan dan robot.

Jalan dari Lab ke Pasar

Penting untuk dicatat bahwa ini masih merupakan sistem eksperimental dari lab universitas. Tidak ada produk komersial yang tersedia, tidak ada harga yang diumumkan, dan tidak ada garis waktu kapan teknologi seperti itu mungkin muncul di kamera konsumen. Perjalanan dari bukti konsep ke komponen yang diproduksi massal, andal, dan terjangkau melibatkan tantangan rekayasa yang signifikan dalam miniaturisasi, efisiensi daya, dan pengurangan biaya. Namun, demonstrasi oleh College of Engineering CMU adalah bukti prinsip yang kuat. Ini memvalidasi bahwa pertukaran puluhan tahun antara depth of field dan kualitas gambar dapat diatasi secara komputasional. Seperti yang dinyatakan profesor Aswin Sankaranarayanan, teknologi ini "dapat secara fundamental mengubah cara kamera melihat dunia." Apakah itu tiba pertama kali dalam mikroskop kelas atas, sensor industri khusus, atau akhirnya di ponsel pintar, masa depan pencitraan baru saja menjadi jauh lebih tajam.