BERITA

Kita, Teknologi, dan Krisis Nalar

Bayangkan pagi Anda: bangun tidur, mengecek ponsel, melihat notifikasi, membuka media sosial, membaca cuplikan berita, lalu menjalani hari dengan berbagai layanan digital. Semuanya terasa biasa. Tapi pernahkah Anda bertanya—siapa sebenarnya yang mengendalikan ini semua?

Di balik rutinitas digital yang tampak ringan itu, sebenarnya berlangsung proses yang jauh lebih dalam dan kompleks. Tak heran jika sejumlah pihak mulai mempertanyakan dampaknya terhadap cara kita berpikir dan bersikap. Salah satunya adalah peringatan tajam yang disampaikan oleh Menteri Pendidikan Dasar dan Menengah (Mendikdasmen) Abdul Mu’ti pada Juni 2025 (Kompas.com, 2025). Ia menyatakan bahwa penggunaan kecerdasan buatan (AI) tanpa kebijaksanaan tidak membuat manusia semakin cerdas—melainkan bisa “membuat orang menjadi culas”. Menurutnya, AI berisiko mematikan akal sehat, mendorong narsisme, dan membentuk budaya sensasi yang dangkal. Di balik kekaguman terhadap kemajuan, terselip krisis yang lebih dalam: manusia yang kehilangan nalar karena terlalu mengandalkan mesin.

Teknologi memang mempermudah hidup. Tapi perlahan, ia juga membuat kita kehilangan kendali atas pikiran dan keputusan sendiri. Kita tidak hidup di masa teknologi yang netral—melainkan di tengah ekosistem kapitalisme pengawasan, bias algoritma, dan krisis integritas digital. Ini bukan teori konspirasi. Ini adalah realitas yang perlahan tapi pasti membentuk cara kita berpikir, merasa, dan bertindak.

Algoritma: Editor Diam yang Tak Terlihat

Saat Anda membuka YouTube, Instagram, TikTok, Netflix, atau bahkan Google, Anda mungkin merasa seperti sedang bebas memilih. Faktanya, semua pilihan itu sudah “dibentuk” sebelumnya oleh sistem yang mengenali preferensi Anda berdasarkan rekam jejak digital. Apa yang Anda lihat bukan semata hasil kebetulan—itu adalah hasil seleksi otomatis oleh algoritma yang bekerja di balik layar.

Fenomena ini disebut oleh Eli Pariser sebagai filter bubble. Dalam bukunya The Filter Bubble (2011), Pariser menjelaskan bahwa algoritma personalisasi cenderung hanya menyajikan informasi yang selaras dengan preferensi atau keyakinan pengguna, dan menyaring konten yang dianggap “kurang relevan”. Akibatnya, pengguna terjebak dalam gelembung informasi yang homogen.

Algoritma bertindak sebagai editor diam bagi dunia yang kita lihat.”
Eli Pariser, 2011

Contohnya bisa dilihat di berbagai platform:

  • YouTube akan terus merekomendasikan video dengan pola serupa dari yang sebelumnya Anda tonton.
  • Netflix menyaring film dan serial agar hanya muncul yang sesuai kebiasaan menonton Anda.
  • TikTok bahkan lebih agresif: algoritma For You Page bisa menampilkan konten yang begitu akurat secara psikologis hingga Anda tak sadar sudah menghabiskan waktu berjam-jam di dalamnya.
  • Di Google Search, hasil yang muncul bisa berbeda antara satu pengguna dengan pengguna lain—bahkan jika mereka mencari kata kunci yang sama.

Masalahnya bukan hanya kita jadi “dikenali terlalu baik”—tetapi kita juga tidak tahu apa yang tidak kita lihat. Perspektif yang berbeda, sudut pandang kritis, atau informasi yang mungkin tidak kita setujui bisa saja hilang dari layar kita. Kita merasa tahu banyak, padahal hanya melihat sepotong realitas.

Jika dibiarkan, kondisi ini berpotensi menumpulkan kemampuan berpikir kritis. Kita jarang ditantang, malas membandingkan, dan cenderung menerima informasi secara pasif. Di sinilah integritas intelektual mulai tergerus—bukan karena kita malas berpikir, tapi karena sistem dirancang agar kita tidak perlu berpikir terlalu keras.

Dunia Tanpa Nalar: Ketika Mesin Menggantikan Pikiran

Franklin Foer, dalam bukunya World Without Mind (2017), menyampaikan kekhawatiran yang mendalam: bahwa raksasa teknologi tidak hanya menyediakan akses terhadap informasi, tetapi secara perlahan juga mengatur cara kita berpikir, bahkan membentuk kembali siapa diri kita.

Di masa lalu, proses berpikir menuntut waktu dan kedalaman. Kita membaca buku, berdiskusi, merenung, dan membangun opini melalui perenungan yang disengaja. Hari ini, proses itu diringkas dalam satu kalimat kunci di mesin pencari. Jawaban tersedia seketika, dan seringkali diterima begitu saja—tanpa verifikasi, tanpa refleksi.

Foer menulis:

When we outsource thinking to machines, we are really outsourcing thinking to the organizations that run the machines.”
— Franklin Foer, World Without Mind (2017)

Pernyataan ini menyiratkan sesuatu yang mendalam: saat kita terlalu bergantung pada teknologi untuk berpikir, kita sebenarnya sedang memberikan otoritas kepada perusahaan-perusahaan yang mengendalikan platform tersebut. Ini bukan sekadar soal kemalasan intelektual, tetapi soal siapa yang berhak menentukan apa yang layak kita pikirkan.

Dalam jangka panjang, pola ini menciptakan masyarakat dengan pola pikir cepat saji—siap mengonsumsi informasi, tapi tidak siap mengolahnya secara mandiri. Kita mungkin bisa menjawab kuis, tapi kehilangan kepekaan dalam menimbang makna. Kita tahu banyak, tapi memahami sedikit. Dan lebih buruknya, kita makin jarang merasa perlu untuk benar-benar berpikir.

Apakah kita masih memiliki otonomi intelektual? Atau kita tengah berubah menjadi manusia "tanpa akal"—yang keputusan hidupnya diarahkan oleh desain antarmuka dan rekomendasi otomatis?

Kapitalisme Pengawasan: Ketika Data Jadi Komoditas

Mengapa perusahaan teknologi tampak begitu “terobsesi” untuk mengetahui apa yang kita suka, cari, pikirkan, bahkan rasakan? Jawabannya bisa ditemukan dalam gagasan Shoshana Zuboff tentang Surveillance Capitalism atau Kapitalisme Pengawasan, atau juga dikenal sebagai Kapitalisme Surveilans. Ini adalah model ekonomi baru yang mengekstraksi data perilaku manusia—seringkali tanpa sadar—untuk memprediksi dan menjual perilaku kita di masa depan. Kita tak lagi sekadar pengguna, melainkan komoditas, yang secara fundamental mengikis privasi dan otonomi kita.

Dalam bukunya The Age of Surveillance Capitalism (2019), Zuboff menjelaskan bahwa raksasa teknologi seperti Google dan Facebook tak lagi menjual produk digital semata. Mereka menjual prediksi perilaku manusia, yang diperoleh dari data perilaku kita—dan seringkali tanpa kita sadari telah memberikannya secara cuma-cuma.

Surveillance capitalism unilaterally claims human experience as free raw material for translation into behavioral data.
Shoshana Zuboff, 2019

Setiap tindakan kita—klik, pencarian, waktu henti di suatu halaman, lokasi GPS, bahkan detak jantung dari jam tangan pintar—diolah menjadi profil perilaku. Tujuannya bukan untuk memahami kita secara netral, tetapi untuk memprediksi dan memengaruhi tindakan kita berikutnya.

Model ini terbukti sangat menguntungkan. Tak hanya perusahaan teknologi, tetapi juga pihak ketiga seperti pengiklan, pemodal, bahkan aktor politik. Kasus Cambridge Analytica menjadi bukti bagaimana data personal bisa digunakan untuk membentuk persepsi publik dan memengaruhi hasil pemilu.

Apa maknanya bagi kita sebagai individu? Kita tak lagi sekadar pengguna, melainkan sumber daya yang dipanen dan diperjualbelikan—tanpa kita sadari dan tanpa persetujuan eksplisit. Bukan hanya kehilangan privasi, kita juga kehilangan otonomi—karena pengalaman hidup kita telah dijadikan komoditas yang dijual ke pasar.

Maka persoalannya bukan lagi sekadar tentang data, melainkan tentang kedaulatan diri. Jika pengalaman paling pribadi pun kini bisa diperdagangkan, siapakah kita—dan siapa yang berhak atas hidup kita?

Krisis Etika dan Bias Algoritma dalam Sistem Cerdas

Teknologi kecerdasan buatan (AI) menjanjikan efisiensi dan otomatisasi, tapi di balik kecanggihannya, tersembunyi bahaya besar: bias algoritma dan kegagalan etis dalam desain. Ketika sistem cerdas digunakan dalam keputusan penting—seperti perekrutan kerja, pemberian kredit, hingga sistem peradilan—dampaknya bisa sangat serius dan tidak selalu adil.

Cathy O’Neil, dalam Weapons of Math Destruction (2016), menyebut bahwa model algoritmik dapat “mengoptimasi sekaligus menghukum.” Artinya, sistem ini dirancang untuk membuat keputusan cepat berdasarkan data historis—namun jika data itu bias, maka hasilnya juga akan bias.

These models are opaque, unregulated, and uncontestable, even when they’re wrong.
Cathy O'Neil, 2016

Misalnya, algoritma perekrutan kerja yang menolak pelamar perempuan karena dilatih dari data historis yang menunjukkan dominasi laki-laki di posisi tertentu. Atau sistem penilaian risiko pinjaman yang memberi skor rendah hanya karena alamat tinggal di lingkungan tertentu.

Meredith Broussard, dalam More Than a Glitch (2023), memperkuat argumen ini. Ia menyoroti bahwa banyak teknologi yang kita anggap netral ternyata memiliki bias struktural terhadap ras, gender, bahkan disabilitas. Ini bukan semata kesalahan teknis, melainkan kegagalan etika dalam desain dan pengujian sistem.

Salah satu tantangan terbesar dalam dunia AI adalah: siapa yang menetapkan “normal”? Jika data masa lalu digunakan sebagai standar masa depan, maka teknologi justru memperkuat ketidakadilan yang sudah ada. Alih-alih membawa kemajuan, sistem algoritmik bisa menjadi alat pelanggeng diskriminasi yang canggih dan tak kasatmata.

Tanpa kerangka etika yang kuat, AI bukan hanya tidak adil—tapi juga tidak bijak. Dan ketika digunakan secara luas dalam masyarakat, hasilnya bukan peningkatan keadilan sosial, melainkan penyempitan ruang keadilan itu sendiri.

Artificial Integrity Gaps dalam Teknologi Cerdas

Kemajuan teknologi membuat mesin semakin “cerdas”—mampu belajar, beradaptasi, bahkan mengambil keputusan. Namun seperti yang diingatkan oleh Hamilton Mann, sebagaimana telah dibahas dalam artikel Teknologi Kian Cerdas, Integritas Kian Terlupakan?, kecanggihan sistem justru menghadirkan tantangan yang semakin besar dalam menjaga agar teknologi tetap etis dan manusiawi. Masalah yang kita hadapi hari ini bukan hanya bias data, tetapi juga celah integritas yang melekat dalam proses desain, implementasi, hingga penggunaan teknologi itu sendiri.

Dalam artikelnya di Forbes, 10 Artificial Integrity Gaps To Guard Against With Machines — Intelligent Or Not (2025), Mann mengidentifikasi sepuluh celah integritas yang perlu diwaspadai. Beberapa di antaranya sangat relevan untuk kita soroti:

  • Penyalahgunaan Fungsi (Functional Diversion): Teknologi yang awalnya dirancang untuk mempermudah hidup bisa dialihfungsikan untuk memata-matai, mengeksploitasi, atau menyebarkan disinformasi. Hal ini tidak hanya soal etika penggunaan, tetapi juga soal tanggung jawab desain.
  • Kurangnya Transparansi (Black Box Decision-Making): Banyak sistem AI beroperasi tanpa bisa dijelaskan secara terbuka—baik oleh pengembangnya maupun oleh pengguna. Ini menciptakan situasi di mana keputusan yang berdampak besar dibuat oleh sistem yang tak bisa dimintai pertanggungjawaban.
  • Kelemahan Validasi Nilai (Weak Value Validation): Mesin bisa mengejar efisiensi, tetapi gagal memahami konteks nilai-nilai manusia seperti keadilan, empati, atau hak asasi.

Mann menekanan:

Without deliberate value embedding, we risk creating machines that are efficient, but not ethical.
Hamilton Mann, 2025

Dengan kata lain, integritas dalam sistem cerdas tidak akan muncul secara otomatis. Ia harus dirancang, diuji, dan diawasi dengan kesadaran moral yang tinggi. Dalam banyak kasus, kegagalan teknologi bukan disebabkan oleh mesin itu sendiri, tetapi oleh manusia yang membuatnya tanpa etika yang matang.

Konsep “integritas buatan” yang dibawa Mann menuntut kita untuk berhenti memuja kecanggihan teknologi secara membabi buta. Ia mengajak kita untuk bertanya: Apakah sistem ini dirancang untuk melayani manusia, atau untuk memanfaatkan manusia?

Dalam dunia yang makin digerakkan oleh mesin, krisis integritas bukan lagi soal niat individu, tetapi tentang struktur sistem yang kita bangun dan biarkan bekerja tanpa kontrol etis.

Menjaga Nalar, Menjaga Integritas

Kita hidup di zaman di mana keputusan, opini, bahkan emosi dapat diarahkan oleh sistem yang tak kita pahami—dan sering kali tak kita sadari. Namun seperti yang diingatkan oleh Franklin Foer (2017), kesadaran atas ancaman ini seharusnya bukan membuat kita putus asa, melainkan menjadi pemicu untuk bertindak.

Pertanyaan mendasar yang perlu kita ajukan kembali adalah:
“Apakah saya benar-benar membuat keputusan ini, ataukah saya sedang diarahkan?”

Krisis integritas digital yang kita hadapi hari ini bukan sekadar soal teknologi yang terlalu canggih, melainkan soal kesiapan manusia untuk tetap berpikir jernih, kritis, dan etis. Menjaga nalar di tengah arus otomatisasi bukan tugas sampingan—melainkan bentuk perlawanan paling mendasar agar kita tetap menjadi subjek, bukan objek, dalam era digital.

Maka, langkah pertama dimulai dari diri kita sendiri—melalui kesadaran harian, pilihan teknologi, hingga keterlibatan dalam regulasi yang berpihak pada manusia.

Apa yang bisa kita lakukan?

  • Pertanyakan Kebiasaan Digital
    Jangan terima begitu saja semua informasi atau rekomendasi. Saat melihat iklan, konten viral, atau hasil pencarian, biasakan bertanya:
    “Mengapa ini yang saya lihat?”
  • Gunakan Teknologi yang Menghargai Privasi
    Pilih alat digital yang lebih etis: gunakan peramban seperti Firefox, mesin pencari seperti DuckDuckGo, atau aplikasi pesan terenkripsi seperti Signal. Langkah kecil ini adalah pernyataan sikap.
  • Perluas Sumber Bacaan dan Informasi
    Keluar dari "gelembung algoritma" dengan mencari perspektif dari berbagai media, buku, jurnal, dan diskusi langsung. Jangan biarkan kurasi mesin menentukan wawasan kita.
  • Pelajari dan Atur Privasi Digital
    Luangkan waktu untuk memahami dan mengatur ulang pengaturan privasi pada perangkat dan akun Anda. Batasi akses yang tidak perlu—dan jangan buru-buru menyetujui sesuatu hanya karena tergesa.
  • Dukung Regulasi yang Berbasis Etika
    Dorong kebijakan yang melindungi hak pengguna: transparansi algoritma, perlindungan data pribadi, audit etis AI. Etika digital bukan sekadar urusan teknokrat—tapi soal keberpihakan pada manusia.
  • Tantang Budaya “Kecepatan Di Atas Kebenaran”
    Berpikir butuh waktu. Ambil jeda. Renungkan. Ajukan pertanyaan. Berani melambat di tengah arus cepat adalah bentuk keberanian tersendiri—dan bentuk pertahanan terakhir terhadap krisis nalar.

Upaya-upaya ini bukan hanya penting untuk menjaga kewarasan pribadi, tetapi juga sebagai bentuk tanggung jawab sosial di era teknologi yang serba otomatis. Teknologi akan terus berkembang. Namun, apakah ia berkembang untuk manusia atau justru menggantikan manusia, sangat bergantung pada bagaimana kita memilih untuk berpikir dan bertindak hari ini.

Penutup

Teknologi bukan musuh—tetapi juga bukan entitas netral tanpa arah. Ia mencerminkan nilai, kepentingan, dan logika pasar yang membentuknya. Di balik segala kemudahan dan efisiensi yang ditawarkan, tersembunyi risiko paling mendasar: kita kehilangan kemampuan bernalar secara mandiri.

Krisis nalar yang kita hadapi hari ini bukan hanya tentang kecanggihan sistem, tetapi tentang bagaimana sistem itu membentuk cara kita berpikir, memilih, dan merasa—secara perlahan namun sistematis. Di sinilah letak bahaya yang sesungguhnya: bukan ketika mesin menggantikan pekerjaan manusia, tetapi ketika ia mulai menggantikan cara manusia memahami dunia.

Seperti yang diingatkan Hamilton Mann (2025):

When intelligence becomes artificial, integrity must become intentional.

Artinya, dalam dunia yang makin digerakkan oleh kecerdasan buatan, kita tak bisa lagi bergantung pada nalar otomatis. Kita harus sengaja memilih untuk berpikir, mempertanyakan, dan menjaga integritas sebagai manusia.

Masa depan tidak akan ditentukan oleh siapa yang memiliki teknologi paling mutakhir—melainkan oleh siapa yang tetap mampu berpikir dengan jernih di tengah kebisingan sistem. Dan itu adalah pilihan yang masih bisa kita perjuangkan, mulai dari sekarang. Karena di tengah arus otomatisasi, berpikir adalah bentuk keberanian terakhir yang hanya manusia mampu lakukan.

Referensi

  • Broussard, Meredith. (2023). More Than a Glitch: Confronting Race, Gender, and Ability Bias in Tech. The MIT Press.
  • Foer, Franklin. (2017). World Without Mind: The Existential Threat of Big Tech. Penguin Press.
  • Kompas.com. (2025, 14 Juni). Mendikdasmen: Tak Bijak Gunakan AI Berpotensi Buat Manusia Jadi Culas. https://www.kompas.com/edu/read/2025/06/14/134846671/mendikdasmen-tak-bijak-gunakan-ai-berpotensi-buat-manusia-jadi-culas
  • Mann, Hamilton. (2025, 30 Mei). 10 Artificial Integrity Gaps To Guard Against With Machines — Intelligent Or Not. Forbes. https://www.forbes.com/sites/hamiltonmann/2025/05/30/ten-artificial-integrity-gaps-to-guard-against-with-machines-intelligent-or-not/
  • O'Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
  • Pariser, Eli. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
  • Zuboff, Shoshana. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Penulis: Yudianto; Pranata Komputer Ahli Madya di Kementerian Kesehatan

Hastag