AI dan Cara Kita Memandang Dunia
Martin Heidegger, dalam esainya The Question Concerning Technology, pernah mengingatkan bahwa bahaya terbesar teknologi tidak terletak pada mesin itu sendiri, melainkan pada cara teknologi secara tidak kasat mata menuntun manusia melihat dunia.
Teknologi modern, kata Heidegger, bekerja melalui apa yang ia sebut Gestell, sebuah cara membingkai realitas. Dalam bahasa Inggris, Gestell diterjemahkan sebagai enframing atau pembingkaian.
Menurut penggunaan umum, kata Gestell (bingkai) berarti
semacam alat, misalnya, rak buku. Gestell juga merupakan nama
untuk kerangka (skeleton)—Martin Heidegger, The Question Concerning Technology, and Other Essays (Garland Publishing, 1977), 20.
Dalam pembingkaian ini, segala sesuatu tampil sebagai standing-reserve: sumber daya yang siap diolah, dioptimalkan, dan dimanfaatkan. Hutan menjadi cadangan kayu, sungai menjadi potensi energi, dan manusia pun perlahan direduksi menjadi unit produktivitas.
Di sinilah kecerdasan buatan 2026 perlu dibaca lebih dalam. Ketika AI semakin mampu merencanakan, mengoordinasikan, dan mengambil tindakan atas nama efisiensi, AI tidak sekadar membantu manusia bekerja. Tanpa kita sadari, AI menyingkapkan pada kita cara baru memandang diri sendiri dan dunia.
Revolusi kecerdasan buatan yang sedang berlangsung saat ini merupakan perkembangan penting jika dibaca melalui kerangka Enframing. Kecerdasan buatan telah menjadi bagian tak terpisahkan dari kehidupan modern, membentuk ulang industri, ekonomi, dan tatanan sosial di berbagai belahan dunia. Dari asisten virtual hingga kendaraan otonom, AI menawarkan potensi besar untuk mengubah banyak dimensi keberadaan manusia.
Namun, transformasi ini tidak hadir tanpa konsekuensi. Revolusi AI juga memunculkan pertanyaan mendasar tentang bagaimana teknologi ini memengaruhi kecerdasan manusia, kerja, dan pengalaman hidup sehari-hari. Ketika AI semakin tertanam dalam rutinitas harian, kita dihadapkan pada kebutuhan untuk merefleksikan bagaimana cara kita bekerja, berpikir, dan berinteraksi perlahan mengalami perubahan.
Dilihat melalui lensa Enframing, revolusi AI memperlihatkan jalinan persoalan yang lebih dalam. Kecerdasan manusia, tenaga kerja, dan pengalaman hidup secara bertahap direduksi menjadi sesuatu yang dapat dihitung, diukur, dan dikelola. AI tidak hanya mengotomatisasi proses, tetapi juga mengubah cara nilai manusia dipahami, sebagai sumber daya yang dapat dioptimalkan.
Realitas sehari-hari, seperti emosi, kebiasaan, preferensi diterjemahkan menjadi dataset. Dunia tampil bukan sebagai sesuatu yang dialami, tetapi sebagai sesuatu yang dapat dihitung, dimodelkan, dan dioptimalkan.
Bahaya di sini bukan pada kesalahan algoritma atau bias data semata. Bahaya yang lebih sublim adalah ketika manusia mulai menerima pembingkaian ini sebagai satu-satunya cara sah untuk memahami kenyataan. Ketika yang tidak dapat diukur dianggap tidak relevan. Ketika yang tidak produktif dianggap tidak bernilai.
Ironisnya, semakin otonom sistem AI, semakin besar ilusi bahwa manusia memegang kendali penuh. Heidegger memperingatkan bahwa dalam teknologi modern, manusia sering merasa sebagai “penguasa”, padahal sejatinya ia juga terbingkai oleh sistem yang ia ciptakan.
Dalam konteks AI agentik yang mampu merencanakan dan bertindak, manusia berisiko berubah dari pengambil keputusan menjadi pengawas pasif. Kita tidak lagi bertanya mengapa sesuatu dilakukan, tetapi apakah sistem berjalan dengan baik.
Dengan menelaah bagaimana AI membentuk dunia kita, kita dapat menangkap dinamika yang bekerja di balik kemajuan teknologi ini. Perspektif ini memungkinkan kita melihat AI bukan semata sebagai pencapaian teknis, melainkan sebagai cermin dari nilai-nilai, prioritas, dan relasi kita dengan teknologi itu sendiri. Cara kita mengembangkan dan menggunakan AI mencerminkan cara kita memahami efisiensi, produktivitas, dan bahkan makna kemanusiaan.
Di titik ini, pertanyaan etika AI bukan sekadar tentang aturan dan regulasi, tetapi tentang cara kita hadir sebagai manusia di tengah sistem yang semakin otomatis.
Namun Heidegger tidak sepenuhnya pesimistis. Ia percaya bahwa di dalam bahaya teknologi, tersimpan pula kemungkinan keselamatan. Keselamatan itu muncul ketika manusia kembali menyadari bahwa teknologi hanyalah satu cara menyingkap dunia, bukan satu-satunya.
Dalam konteks AI, ini berarti menjaga ruang bagi pengalaman yang tidak sepenuhnya tereduksi menjadi data: dialog yang ambigu, keputusan yang melibatkan kebijaksanaan, dan relasi yang tidak selalu efisien.
Tahun 2026, sebagaimana dibaca oleh MIT Technology Review, bukan hanya tentang kematangan AI. Ia juga menjadi ujian bagi kematangan manusia: apakah kita mampu menggunakan AI tanpa membiarkan diri kita sepenuhnya dibentuk olehnya.

