Di permukaan, algoritma sering dianggap netral. Ia bekerja berdasarkan data, menjalankan perintah matematis, dan mengikuti parameter yang sudah ditentukan. Tapi justru karena persepsi inilah banyak orang tidak menyadari bahwa algoritma tidak pernah benar-benar bebas dari bias. Bahkan, dalam banyak kasus, algoritma justru memperkuat ketimpangan yang sudah ada.
Algoritma dibentuk dari data. Dan data, meskipun terdengar objektif, sering kali mencerminkan sejarah yang tidak seimbang. Misalnya, jika sistem AI dilatih dari data yang mayoritas berasal dari satu kelompok sosial, maka hasilnya akan cenderung merefleksikan perspektif kelompok tersebut. Ini bukan kesalahan teknis, melainkan konsekuensi dari siapa yang memegang kendali atas data.
Dalam dunia digital hari ini, kita hidup di bawah sistem yang diam-diam mengatur apa yang kita lihat, baca, dan bahkan pikirkan. Mulai dari rekomendasi konten, peringkat hasil pencarian, sampai moderasi komentar—semuanya digerakkan oleh algoritma. Tapi siapa yang menentukan algoritma itu bekerja seperti apa? Siapa yang menentukan apa yang dianggap layak tampil di layar kita?
Dalam praktiknya, algoritma melayani kepentingan bisnis. Konten yang menghasilkan interaksi tinggi akan lebih sering muncul. Masalahnya, interaksi tinggi tidak selalu berarti berkualitas. Ia bisa berarti kontroversial, sensasional, atau bahkan berbahaya. Maka jangan heran jika narasi yang ekstrem lebih mudah viral. Ini bukan semata-mata karena orang tertarik, tapi karena sistem menyukai apa yang bisa diklik.
Ketika algoritma digunakan di sektor yang lebih krusial, seperti perbankan, rekrutmen kerja, atau sistem hukum, ketidaknetralannya menjadi lebih berbahaya. Ada laporan tentang AI yang menolak lamaran kerja dari kandidat perempuan karena datanya mengandung bias historis yang menganggap laki-laki lebih dominan di bidang tertentu. Ada pula sistem pemeringkatan kredit yang menilai seseorang berdasarkan lokasi tempat tinggal, yang tanpa sadar mereplikasi diskriminasi struktural.
Yang diuntungkan dalam sistem ini biasanya adalah mereka yang sudah punya akses, modal, dan visibilitas sejak awal. Sementara yang terpinggirkan makin sulit masuk ke dalam ekosistem karena tidak sesuai “pola” yang dianggap menguntungkan. Ketika algoritma menilai seseorang dari kesamaan dengan data yang sudah ada, maka inovasi, keberagaman, dan perspektif baru akan sulit mendapat tempat.
Bahaya dari anggapan bahwa algoritma netral adalah hilangnya ruang kritik. Ketika keputusan besar diserahkan pada sistem yang katanya “otomatis”, maka tidak ada lagi yang bertanggung jawab secara manusiawi. Padahal di balik setiap sistem, tetap ada orang-orang yang mendesain, mengatur, dan menetapkan batasan. Netralitas algoritma hanyalah mitos yang mengaburkan relasi kuasa.
Maka pertanyaannya bukan hanya “bagaimana algoritma bekerja”, tapi juga “siapa yang diuntungkan” dan “siapa yang dikorbankan”. Membongkar bias dalam sistem digital adalah langkah awal untuk menciptakan ekosistem teknologi yang lebih adil. Karena teknologi bukan soal efisiensi semata, tapi juga soal nilai dan keberpihakan.
Di era di mana algoritma ada di mana-mana, menjadi kritis terhadap cara ia bekerja bukanlah sikap skeptis berlebihan, tapi bentuk tanggung jawab sebagai pengguna. Jika tidak, maka kita hanya akan jadi bagian dari sistem yang terus memutar ulang ketimpangan lama dengan wajah yang lebih rapi dan modern.