Disini anda dapat mengunduh laporan pemantauan harian berepotensi kejadian Krisis Kesehatan tanggal 3 Juni 2025 Lihat Laporan Pemantauan Harian Pusat Krisis Kesehatan 3 Juni 2025
Disini anda dapat mengunduh laporan pemantauan harian berepotensi kejadian Krisis Kesehatan tanggal 2 Juni 2025 Lihat Laporan Pemantauan Harian Pusat Krisis Kesehatan 2 Juni 2025
Disini anda dapat mengunduh laporan pemantauan harian berepotensi kejadian Krisis Kesehatan tanggal 1 Juni 2025 Lihat Laporan Pemantauan Harian Pusat Krisis Kesehatan 1 Juni 2025
Di tengah hiruk pikuk pekerjaan birokrasi, siapa sangka ruang kerja bisa jadi lebih dari sekadar deretan meja? Mari kita intip bagaimana Biro Umum Setjen Kemenkes bersiap menyongsong era baru produktivitas dan kolaborasi.Pernahkah Anda membayangkan sebuah kantor pemerintah yang dinamis, penuh ide, dan mampu memicu kolaborasi lintas tim kerja? Di Biro Umum Sekretariat Jenderal Kementerian Kesehatan, impian itu kini mulai terwujud. Dengan bangga, kami memperkenalkan inisiatif terbaru: desain ulang ruang kerja dengan konsep co-working modern!Ini bukan sekadar merenovasi, melainkan sebuah lompatan strategis menuju lingkungan kerja yang lebih efisien, inspiratif, dan adaptif di era digital.Dari Parkir Kendaraan Menjadi Ruang Kerja IndustrialLangkah inovatif menuju konsep co-working ini diinisiasi seiring dengan pergeseran pola kerja, terutama dengan adanya kebijakan Work From Anywhere (WFA) di lingkungan Kemenkes. Namun, perlu diketahui bahwa lokasi ruang kerja Biro Umum Setjen Kemenkes sendiri telah lama menempati lantai 4 Gedung Prof. Sujudi Kemenkes, Jalan HR Rasuna Said, Jakarta Selatan, yang merupakan hasil pemanfaatan kreatif dari bekas area parkir kendaraan sejak awal.Inisiasi awal transformasi desain ke arah co-working berfokus pada lantai 4 atas. Pemanfaatan ruang parkir ini, yang sebelumnya sudah ada, justru melahirkan sebuah keunikan desain. Alih-alih menyembunyikannya, kami merangkul suasana gaya industrial yang khas. Pipa dan perkabelan yang biasanya tersembunyi, kini sengaja diekspos, memberikan nuansa modern dan urban yang menyegarkan, berbeda dari citra kantor birokrasi pada umumnya. Ini adalah bukti bahwa keterbatasan bisa menjadi pemicu kreativitas.Bermodal data dan keyakinan akan potensi efisiensi, Biro Umum mengambil keputusan penting: mengurangi jumlah kursi fisik di ruang kerja menjadi hanya sekitar 60% dari total staf. Awalnya mungkin terdengar drastis, namun faktanya, inisiasi ini terbukti cukup dan bahkan efektif. Staf yang datang ke kantor dapat dengan nyaman menemukan tempat kerja yang sesuai, sementara ruang yang ada dimanfaatkan secara lebih optimal.Seiring dengan pengurangan jumlah kursi, penerapan konsep co-working ini juga mengharuskan perubahan budaya. Salah satu aspek krusial adalah penerapan prinsip "clean desk". Setiap staf diharapkan merapikan dan membersihkan area kerja setelah selesai digunakan, menjadikannya siap untuk staf lain. Untuk mendukung hal ini, Biro Umum juga menyediakan lemari penyimpanan pribadi atau loker bagi staf untuk menyimpan barang-barang personal mereka dengan aman saat tidak berada di meja kerja. Inilah bukti nyata bahwa efisiensi bukan hanya tentang penghematan, tetapi juga tentang adaptasi cerdas terhadap cara kerja baru.Melihat keberhasilan ini, dalam waktu dekat, transformasi serupa akan dilanjutkan di lantai 4 bawah gedung yang sama, memperluas area co-working dan mengukuhkan komitmen terhadap efisiensi dan modernisasi.Tradisional vs. Co-working: Sebuah Pergeseran ParadigmaSelama ini, kita akrab dengan model ruang kerja tradisional atau konvensional, di mana setiap staf umumnya memiliki meja atau bilik permanen sendiri. Model ini cenderung menghasilkan pemanfaatan ruang yang kurang efisien, terutama jika ada staf yang sedang dinas atau bekerja dari rumah. Kolaborasi pun seringkali terbatas pada lingkup tim kerja atau unit kerja masing-masing, membuat interaksi lintas unit kurang optimal. Atmosfer kerja cenderung kaku dan formal, dan fleksibilitas untuk beradaptasi dengan perubahan kebutuhan organisasi seringkali rendah.Berbeda dengan itu, konsep co-working menawarkan paradigma baru. Model ini mengedepankan fleksibilitas dan pemanfaatan ruang bersama. Staf tidak terikat pada satu meja permanen, melainkan dapat memilih dari berbagai pilihan tempat kerja yang tersedia, mulai dari hot desk di area terbuka, bilik privasi untuk fokus, hingga ruang kolaborasi untuk diskusi kelompok. Hal ini secara signifikan mendorong interaksi informal dan formal lintas seksi atau unit, menciptakan atmosfer kerja yang lebih dinamis, beragam, dan mendukung kreativitas. Potensi efisiensi biaya juga lebih besar karena pembagian fasilitas, dan yang terpenting, ruang kerja menjadi lebih adaptif terhadap perubahan staf atau proyek.Sederhananya, co-working adalah model ruang kerja fleksibel yang dibagi pakai oleh berbagai individu atau tim. Berbeda dengan kantor tradisional yang kaku, di sini staf bisa memilih area kerja yang paling sesuai dengan kebutuhan mereka, mulai dari meja bersama yang dinamis, bilik privasi untuk fokus, hingga area kolaborasi untuk diskusi kelompok.Ini adalah tentang menciptakan ekosistem kerja di mana ide-ide bisa mengalir bebas, batasan antar seksi bisa menipis, dan setiap individu merasa nyaman untuk berkreasi.Mengapa Co-working? Ini Dia Tujuan dan Manfaatnya!Keputusan mengadopsi konsep co-working bukan tanpa alasan kuat. Kami melihat potensi besar dalam beberapa aspek, di antaranya: Meningkatkan Kolaborasi dan Sinergi: Bayangkan staf dari berbagai seksi yang tadinya bekerja terpisah, kini bisa berinteraksi lebih mudah. Pertukaran ide lintas batas akan memicu solusi inovatif dan sinergi yang lebih kuat dalam setiap program. Optimalisasi Pemanfaatan Ruang: Dengan model fleksibel ini, kami bisa memanfaatkan setiap jengkal ruang kantor secara lebih efisien. Tidak ada lagi meja kosong yang "menganggur" saat staf sedang dinas atau WFH. Menciptakan Lingkungan Kerja Dinamis: Suasana kantor yang modern dan tidak kaku akan mendorong kreativitas dan pola pikir di luar kebiasaan. Ini penting untuk menghadapi tantangan birokrasi yang semakin kompleks. Mendukung Fleksibilitas Kerja: Konsep co-working sangat ideal untuk mendukung model kerja hibrida atau fleksibel yang kini semakin relevan. Staf bisa memilih kapan dan di mana mereka bekerja secara optimal. Peningkatan Kesejahteraan Staf: Menyediakan beragam pilihan tempat kerja akan mengurangi kejenuhan, meningkatkan kenyamanan, dan pada akhirnya, berkontribusi pada kesejahteraan seluruh staf.Manfaatnya pun tak kalah banyak: mulai dari peningkatan produktivitas karena lingkungan yang lebih kondusif, potensi efisiensi biaya melalui pembagian fasilitas, hingga pembentukan budaya organisasi yang adaptif terhadap perubahan.Fasilitas dan Budaya Kerja di Ruang Co-working Biro UmumTransformasi ini tidak berhenti pada desain fisik semata. Untuk mendukung produktivitas dan kolaborasi, ruang kerja co-working Biro Umum dilengkapi dengan infrastruktur teknologi yang mumpuni. Ini mencakup konektivitas internet yang kuat, baik Wi-Fi maupun akses kabel di setiap meja, serta ruang privat kedap suara yang ideal untuk rapat daring tanpa gangguan.Namun, yang terpenting adalah perubahan budaya kerja. Sosialisasi dan adaptasi adalah kunci agar setiap staf merasa memiliki dan nyaman dengan konsep baru ini. Desain ruang juga telah mempertimbangkan aspek ergonomi dan fungsionalitas dengan menyediakan beragam area. Ada private pods untuk fokus mendalam, ruang rapat fleksibel untuk diskusi tim, hingga area santai yang nyaman, semuanya demi menciptakan lingkungan yang menyeimbangkan konsentrasi individu dengan kolaborasi tim.Dengan langkah ini, Biro Umum Setjen Kemenkes tidak hanya membangun ruang kerja yang lebih baik, tetapi juga sedang membentuk masa depan birokrasi yang lebih adaptif, kolaboratif, dan inovatif. Bersama-sama, kita bisa wujudkan pelayanan publik yang lebih prima!
Bayangkan pagi Anda: bangun tidur, mengecek ponsel, melihat notifikasi, membuka media sosial, membaca cuplikan berita, lalu menjalani hari dengan berbagai layanan digital. Semuanya terasa biasa. Tapi pernahkah Anda bertanya—siapa sebenarnya yang mengendalikan ini semua?Di balik rutinitas digital yang tampak ringan itu, sebenarnya berlangsung proses yang jauh lebih dalam dan kompleks. Tak heran jika sejumlah pihak mulai mempertanyakan dampaknya terhadap cara kita berpikir dan bersikap. Salah satunya adalah peringatan tajam yang disampaikan oleh Menteri Pendidikan Dasar dan Menengah (Mendikdasmen) Abdul Mu’ti pada Juni 2025 (Kompas.com, 14 Juni 2025). Ia menyatakan bahwa penggunaan kecerdasan buatan (AI) tanpa kebijaksanaan tidak membuat manusia semakin cerdas—melainkan bisa “membuat orang menjadi culas”. Menurutnya, AI berisiko mematikan akal sehat, mendorong narsisme, dan membentuk budaya sensasi yang dangkal. Di balik kekaguman terhadap kemajuan, terselip krisis yang lebih dalam: manusia yang kehilangan nalar karena terlalu mengandalkan mesin.Teknologi memang mempermudah hidup. Tapi perlahan, ia juga membuat kita kehilangan kendali atas pikiran dan keputusan sendiri. Kita tidak hidup di masa teknologi yang netral—melainkan di tengah ekosistem kapitalisme pengawasan, bias algoritma, dan krisis integritas digital. Ini bukan teori konspirasi. Ini adalah realitas yang perlahan tapi pasti membentuk cara kita berpikir, merasa, dan bertindak.Algoritma: Editor Diam yang Tak TerlihatSaat Anda membuka YouTube, Instagram, TikTok, Netflix, atau bahkan Google, Anda mungkin merasa seperti sedang bebas memilih. Faktanya, semua pilihan itu sudah “dibentuk” sebelumnya oleh sistem yang mengenali preferensi Anda berdasarkan rekam jejak digital. Apa yang Anda lihat bukan semata hasil kebetulan—itu adalah hasil seleksi otomatis oleh algoritma yang bekerja di balik layar.Fenomena ini disebut oleh Eli Pariser sebagai filter bubble. Dalam bukunya The Filter Bubble (2011), Pariser menjelaskan bahwa algoritma personalisasi cenderung hanya menyajikan informasi yang selaras dengan preferensi atau keyakinan pengguna, dan menyaring konten yang dianggap “kurang relevan”. Akibatnya, pengguna terjebak dalam gelembung informasi yang homogen.“Algoritma bertindak sebagai editor diam bagi dunia yang kita lihat.”— Eli Pariser, 2011Contohnya bisa dilihat di berbagai platform: YouTube akan terus merekomendasikan video dengan pola serupa dari yang sebelumnya Anda tonton. Netflix menyaring film dan serial agar hanya muncul yang sesuai kebiasaan menonton Anda. TikTok bahkan lebih agresif: algoritma For You Page bisa menampilkan konten yang begitu akurat secara psikologis hingga Anda tak sadar sudah menghabiskan waktu berjam-jam di dalamnya. Di Google Search, hasil yang muncul bisa berbeda antara satu pengguna dengan pengguna lain—bahkan jika mereka mencari kata kunci yang sama.Masalahnya bukan hanya kita jadi “dikenali terlalu baik”—tetapi kita juga tidak tahu apa yang tidak kita lihat. Perspektif yang berbeda, sudut pandang kritis, atau informasi yang mungkin tidak kita setujui bisa saja hilang dari layar kita. Kita merasa tahu banyak, padahal hanya melihat sepotong realitas.Jika dibiarkan, kondisi ini berpotensi menumpulkan kemampuan berpikir kritis. Kita jarang ditantang, malas membandingkan, dan cenderung menerima informasi secara pasif. Di sinilah integritas intelektual mulai tergerus—bukan karena kita malas berpikir, tapi karena sistem dirancang agar kita tidak perlu berpikir terlalu keras.Dunia Tanpa Nalar: Ketika Mesin Menggantikan PikiranFranklin Foer, dalam bukunya World Without Mind (2017), menyampaikan kekhawatiran yang mendalam: bahwa raksasa teknologi tidak hanya menyediakan akses terhadap informasi, tetapi secara perlahan juga mengatur cara kita berpikir, bahkan membentuk kembali siapa diri kita.Di masa lalu, proses berpikir menuntut waktu dan kedalaman. Kita membaca buku, berdiskusi, merenung, dan membangun opini melalui perenungan yang disengaja. Hari ini, proses itu diringkas dalam satu kalimat kunci di mesin pencari. Jawaban tersedia seketika, dan seringkali diterima begitu saja—tanpa verifikasi, tanpa refleksi.Foer menulis:“When we outsource thinking to machines, we are really outsourcing thinking to the organizations that run the machines.”— Franklin Foer, World Without Mind (2017)Pernyataan ini menyiratkan sesuatu yang mendalam: saat kita terlalu bergantung pada teknologi untuk berpikir, kita sebenarnya sedang memberikan otoritas kepada perusahaan-perusahaan yang mengendalikan platform tersebut. Ini bukan sekadar soal kemalasan intelektual, tetapi soal siapa yang berhak menentukan apa yang layak kita pikirkan.Dalam jangka panjang, pola ini menciptakan masyarakat dengan pola pikir cepat saji—siap mengonsumsi informasi, tapi tidak siap mengolahnya secara mandiri. Kita mungkin bisa menjawab kuis, tapi kehilangan kepekaan dalam menimbang makna. Kita tahu banyak, tapi memahami sedikit. Dan lebih buruknya, kita makin jarang merasa perlu untuk benar-benar berpikir.Apakah kita masih memiliki otonomi intelektual? Atau kita tengah berubah menjadi manusia "tanpa akal"—yang keputusan hidupnya diarahkan oleh desain antarmuka dan rekomendasi otomatis?Kapitalisme Pengawasan: Ketika Data Jadi KomoditasMengapa perusahaan teknologi tampak begitu “terobsesi” untuk mengetahui apa yang kita suka, cari, pikirkan, bahkan rasakan? Jawabannya bisa ditemukan dalam gagasan Shoshana Zuboff tentang Surveillance Capitalism atau Kapitalisme Pengawasan, atau juga dikenal sebagai Kapitalisme Surveilans. Ini adalah model ekonomi baru yang mengekstraksi data perilaku manusia—seringkali tanpa sadar—untuk memprediksi dan menjual perilaku kita di masa depan. Kita tak lagi sekadar pengguna, melainkan komoditas, yang secara fundamental mengikis privasi dan otonomi kita.Dalam bukunya The Age of Surveillance Capitalism (2019), Zuboff menjelaskan bahwa raksasa teknologi seperti Google dan Facebook tak lagi menjual produk digital semata. Mereka menjual prediksi perilaku manusia, yang diperoleh dari data perilaku kita—dan seringkali tanpa kita sadari telah memberikannya secara cuma-cuma.“Surveillance capitalism unilaterally claims human experience as free raw material for translation into behavioral data.”— Shoshana Zuboff, 2019Setiap tindakan kita—klik, pencarian, waktu henti di suatu halaman, lokasi GPS, bahkan detak jantung dari jam tangan pintar—diolah menjadi profil perilaku. Tujuannya bukan untuk memahami kita secara netral, tetapi untuk memprediksi dan memengaruhi tindakan kita berikutnya.Model ini terbukti sangat menguntungkan. Tak hanya perusahaan teknologi, tetapi juga pihak ketiga seperti pengiklan, pemodal, bahkan aktor politik. Kasus Cambridge Analytica menjadi bukti bagaimana data personal bisa digunakan untuk membentuk persepsi publik dan memengaruhi hasil pemilu.Apa maknanya bagi kita sebagai individu? Kita tak lagi sekadar pengguna, melainkan sumber daya yang dipanen dan diperjualbelikan—tanpa kita sadari dan tanpa persetujuan eksplisit. Bukan hanya kehilangan privasi, kita juga kehilangan otonomi—karena pengalaman hidup kita telah dijadikan komoditas yang dijual ke pasar.Maka persoalannya bukan lagi sekadar tentang data, melainkan tentang kedaulatan diri. Jika pengalaman paling pribadi pun kini bisa diperdagangkan, siapakah kita—dan siapa yang berhak atas hidup kita?Krisis Etika dan Bias Algoritma dalam Sistem CerdasTeknologi kecerdasan buatan (AI) menjanjikan efisiensi dan otomatisasi, tapi di balik kecanggihannya, tersembunyi bahaya besar: bias algoritma dan kegagalan etis dalam desain. Ketika sistem cerdas digunakan dalam keputusan penting—seperti perekrutan kerja, pemberian kredit, hingga sistem peradilan—dampaknya bisa sangat serius dan tidak selalu adil.Cathy O’Neil, dalam Weapons of Math Destruction (2016), menyebut bahwa model algoritmik dapat “mengoptimasi sekaligus menghukum.” Artinya, sistem ini dirancang untuk membuat keputusan cepat berdasarkan data historis—namun jika data itu bias, maka hasilnya juga akan bias.“These models are opaque, unregulated, and uncontestable, even when they’re wrong.”— Cathy O'Neil, 2016Misalnya, algoritma perekrutan kerja yang menolak pelamar perempuan karena dilatih dari data historis yang menunjukkan dominasi laki-laki di posisi tertentu. Atau sistem penilaian risiko pinjaman yang memberi skor rendah hanya karena alamat tinggal di lingkungan tertentu.Meredith Broussard, dalam More Than a Glitch (2023), memperkuat argumen ini. Ia menyoroti bahwa banyak teknologi yang kita anggap netral ternyata memiliki bias struktural terhadap ras, gender, bahkan disabilitas. Ini bukan semata kesalahan teknis, melainkan kegagalan etika dalam desain dan pengujian sistem.Salah satu tantangan terbesar dalam dunia AI adalah: siapa yang menetapkan “normal”? Jika data masa lalu digunakan sebagai standar masa depan, maka teknologi justru memperkuat ketidakadilan yang sudah ada. Alih-alih membawa kemajuan, sistem algoritmik bisa menjadi alat pelanggeng diskriminasi yang canggih dan tak kasatmata.Tanpa kerangka etika yang kuat, AI bukan hanya tidak adil—tapi juga tidak bijak. Dan ketika digunakan secara luas dalam masyarakat, hasilnya bukan peningkatan keadilan sosial, melainkan penyempitan ruang keadilan itu sendiri.Artificial Integrity Gaps dalam Teknologi CerdasKemajuan teknologi membuat mesin semakin “cerdas”—mampu belajar, beradaptasi, bahkan mengambil keputusan. Namun seperti yang diingatkan oleh Hamilton Mann, sebagaimana telah dibahas dalam artikel Teknologi Kian Cerdas, Integritas Kian Terlupakan?, kecanggihan sistem justru menghadirkan tantangan yang semakin besar dalam menjaga agar teknologi tetap etis dan manusiawi. Masalah yang kita hadapi hari ini bukan hanya bias data, tetapi juga celah integritas yang melekat dalam proses desain, implementasi, hingga penggunaan teknologi itu sendiri.Dalam artikelnya di Forbes, 10 Artificial Integrity Gaps To Guard Against With Machines — Intelligent Or Not (2025), Mann mengidentifikasi sepuluh celah integritas yang perlu diwaspadai. Beberapa di antaranya sangat relevan untuk kita soroti: Penyalahgunaan Fungsi (Functional Diversion): Teknologi yang awalnya dirancang untuk mempermudah hidup bisa dialihfungsikan untuk memata-matai, mengeksploitasi, atau menyebarkan disinformasi. Hal ini tidak hanya soal etika penggunaan, tetapi juga soal tanggung jawab desain. Kurangnya Transparansi (Black Box Decision-Making): Banyak sistem AI beroperasi tanpa bisa dijelaskan secara terbuka—baik oleh pengembangnya maupun oleh pengguna. Ini menciptakan situasi di mana keputusan yang berdampak besar dibuat oleh sistem yang tak bisa dimintai pertanggungjawaban. Kelemahan Validasi Nilai (Weak Value Validation): Mesin bisa mengejar efisiensi, tetapi gagal memahami konteks nilai-nilai manusia seperti keadilan, empati, atau hak asasi.Mann menekankan:“Without deliberate value embedding, we risk creating machines that are efficient, but not ethical.”— Hamilton Mann, 2025Dengan kata lain, integritas dalam sistem cerdas tidak akan muncul secara otomatis. Ia harus dirancang, diuji, dan diawasi dengan kesadaran moral yang tinggi. Dalam banyak kasus, kegagalan teknologi bukan disebabkan oleh mesin itu sendiri, tetapi oleh manusia yang membuatnya tanpa etika yang matang.Konsep “integritas buatan” yang dibawa Mann menuntut kita untuk berhenti memuja kecanggihan teknologi secara membabi buta. Ia mengajak kita untuk bertanya: Apakah sistem ini dirancang untuk melayani manusia, atau untuk memanfaatkan manusia?Dalam dunia yang makin digerakkan oleh mesin, krisis integritas bukan lagi soal niat individu, tetapi tentang struktur sistem yang kita bangun dan biarkan bekerja tanpa kontrol etis.Menjaga Nalar, Menjaga IntegritasKita hidup di zaman di mana keputusan, opini, bahkan emosi dapat diarahkan oleh sistem yang tak kita pahami—dan sering kali tak kita sadari. Namun seperti yang diingatkan oleh Franklin Foer (2017), kesadaran atas ancaman ini seharusnya bukan membuat kita putus asa, melainkan menjadi pemicu untuk bertindak.Pertanyaan mendasar yang perlu kita ajukan kembali adalah:“Apakah saya benar-benar membuat keputusan ini, ataukah saya sedang diarahkan?”Krisis integritas digital yang kita hadapi hari ini bukan sekadar soal teknologi yang terlalu canggih, melainkan soal kesiapan manusia untuk tetap berpikir jernih, kritis, dan etis. Menjaga nalar di tengah arus otomatisasi bukan tugas sampingan—melainkan bentuk perlawanan paling mendasar agar kita tetap menjadi subjek, bukan objek, dalam era digital.Maka, langkah pertama dimulai dari diri kita sendiri—melalui kesadaran harian, pilihan teknologi, hingga keterlibatan dalam regulasi yang berpihak pada manusia.Apa yang bisa kita lakukan? Pertanyakan Kebiasaan Digital Jangan terima begitu saja semua informasi atau rekomendasi. Saat melihat iklan, konten viral, atau hasil pencarian, biasakan bertanya: “Mengapa ini yang saya lihat?” Gunakan Teknologi yang Menghargai Privasi Pilih alat digital yang lebih etis: gunakan peramban seperti Firefox, mesin pencari seperti DuckDuckGo, atau aplikasi pesan terenkripsi seperti Signal. Langkah kecil ini adalah pernyataan sikap. Perluas Sumber Bacaan dan Informasi Keluar dari "gelembung algoritma" dengan mencari perspektif dari berbagai media, buku, jurnal, dan diskusi langsung. Jangan biarkan kurasi mesin menentukan wawasan kita. Pelajari dan Atur Privasi Digital Luangkan waktu untuk memahami dan mengatur ulang pengaturan privasi pada perangkat dan akun Anda. Batasi akses yang tidak perlu—dan jangan buru-buru menyetujui sesuatu hanya karena tergesa. Dukung Regulasi yang Berbasis Etika Dorong kebijakan yang melindungi hak pengguna: transparansi algoritma, perlindungan data pribadi, audit etis AI. Etika digital bukan sekadar urusan teknokrat—tapi soal keberpihakan pada manusia. Tantang Budaya “Kecepatan Di Atas Kebenaran” Berpikir butuh waktu. Ambil jeda. Renungkan. Ajukan pertanyaan. Berani melambat di tengah arus cepat adalah bentuk keberanian tersendiri—dan bentuk pertahanan terakhir terhadap krisis nalar.Upaya-upaya ini bukan hanya penting untuk menjaga kewarasan pribadi, tetapi juga sebagai bentuk tanggung jawab sosial di era teknologi yang serba otomatis. Teknologi akan terus berkembang. Namun, apakah ia berkembang untuk manusia atau justru menggantikan manusia, sangat bergantung pada bagaimana kita memilih untuk berpikir dan bertindak hari ini.PenutupTeknologi bukan musuh—tetapi juga bukan entitas netral tanpa arah. Ia mencerminkan nilai, kepentingan, dan logika pasar yang membentuknya. Di balik segala kemudahan dan efisiensi yang ditawarkan, tersembunyi risiko paling mendasar: kita kehilangan kemampuan bernalar secara mandiri.Krisis nalar yang kita hadapi hari ini bukan hanya tentang kecanggihan sistem, tetapi tentang bagaimana sistem itu membentuk cara kita berpikir, memilih, dan merasa—secara perlahan namun sistematis. Di sinilah letak bahaya yang sesungguhnya: bukan ketika mesin menggantikan pekerjaan manusia, tetapi ketika ia mulai menggantikan cara manusia memahami dunia.Seperti yang diingatkan Hamilton Mann (2025):“When intelligence becomes artificial, integrity must become intentional.”Artinya, dalam dunia yang makin digerakkan oleh kecerdasan buatan, kita tak bisa lagi bergantung pada nalar otomatis. Kita harus sengaja memilih untuk berpikir, mempertanyakan, dan menjaga integritas sebagai manusia.Masa depan tidak akan ditentukan oleh siapa yang memiliki teknologi paling mutakhir—melainkan oleh siapa yang tetap mampu berpikir dengan jernih di tengah kebisingan sistem. Dan itu adalah pilihan yang masih bisa kita perjuangkan, mulai dari sekarang. Karena di tengah arus otomatisasi, berpikir adalah bentuk keberanian terakhir yang hanya manusia mampu lakukan.Referensi Broussard, Meredith. (2023). More Than a Glitch: Confronting Race, Gender, and Ability Bias in Tech. The MIT Press. Foer, Franklin. (2017). World Without Mind: The Existential Threat of Big Tech. Penguin Press. Kompas. com. (2025, 14 Juni) . Mendikdasmen: Tak Bijak Gunakan AI Berpotensi Buat Manusia Jadi Culas . https://www.kompas.com/edu/read/2025/06/14/134846671/mendikdasmen-tak-bijak-gunakan-ai-berpotensi-buat-manusia-jadi-culas Mann, Hamilton. (2025, 30 Mei). 10 Artificial Integrity Gaps To Guard Against With Machines — Intelligent Or Not. Forbes. https://www.forbes.com/sites/hamiltonmann/2025/05/30/ten-artificial-integrity-gaps-to-guard-against-with-machines-intelligent-or-not/ O'Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown. Pariser, Eli. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press. Zuboff, Shoshana. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. Penulis: Yudianto; Pranata Komputer Ahli Madya di Kementerian Kesehatan
Hi Healthies ☺️Pernahkah Healthies mencari sesuatu melalui search engine, dan ketika memilih salah satu hasil pencarian, tetapi diarahkan ke situs yang tidak relevan dan mencurigakan?Jika demikian, Healthies mungkin telah mengalami Search Engine Optimization (SEO) Poisoning. Apa itu SEO poisoning? Yuk, simak infografis #dariKAMI berikut agar Healthies terhindar dari SEO poisoning 💪🏻 Beranda Informasi Keamanan Informasi#dariKAMI #28