Bacaini.ID, USA – Saat dunia sibuk memperhatikan pertengkaran Elon Musk, manuver Sam Altman, dan kontroversi politik Donald Trump, ada satu nama yang diam-diam menyusun peta jalan masa depan kecerdasan buatan. Dia bukan tokoh flamboyan di depan kamera yang menyukai publikasi yang bahkan nyaris tak dikenal publik.
Dari balik layar, ia mengendalikan sistem AI yang digunakan oleh beberapa perusahaan raksasa teknologi dunia. Namanya Alexandr Wang, pria keturunan imigran Tiongkok yang usianya baru 28 tahun kelahiran Los Alamos, New Mexico. Tapi jangan biarkan angka itu mengecoh Anda, pria jebolan (drop out) dari MIT (Massachusetts Institute of Technology) jurusan Matematika & CS yang memilih DO demi membesarkan perusahaannya Scale AI dan kemudian digunakan oleh perusahaan-perusahaan besar AI lainnya.
Anak Muda Paling Berpengaruh di Dunia AI
Wang membangun Scale AI saat baru berusia 19 tahun. Startup ini bukan aplikasi viral atau perangkat keras canggih. Ia adalah infrastruktur tak terlihat, sebuah mesin pemroses data yang menjadi fondasi dari segala model AI yang kita kenal hari ini: GPT, Claude, Gemini, bahkan sistem pertahanan militer AS.
Scale AI adalah penyedia utama data pelatihan (machine learning), seperti “bahan bakar” yang membuat setiap sistem AI bisa belajar, menebak, memproses, hingga berinovasi. Mereka memberi label dan membersihkan miliaran data untuk perusahaan seperti OpenAI, Microsoft, Meta, hingga Google.
Kedengarannya teknis dan membosankan? Justru itulah kekuatannya. Wang tidak hanya membangun produk. Dia membangun kendali atas salah satu komoditas paling penting di era digital: data bersih.
Zuckerberg Bertaruh $15 Miliar
Minggu lalu, dunia teknologi dikejutkan oleh berita: Mark Zuckerberg, CEO Meta, memberikan suntikan dana sebesar $15 miliar setara dengan Rp 247 triliun untuk menggaet Wang bergabung dengan proyek “Superintelligence”, sebuah laboratorium AI ambisius Meta yang ingin menyalip semua pesaing.
Meta memang sedang dalam tekanan. Setelah serangkaian kegagalan peluncuran produk AI dan hengkangnya sejumlah peneliti top, perusahaan ini terlihat terseok dalam perlombaan AI. Kini, dengan masuknya Wang, Meta tidak hanya mendapatkan seorang insinyur. Mereka mendapatkan akses ke sistem, jaringan, dan wawasan dalam dari seluruh ekosistem AI global.
Musk Berikutnya?
Alexandr Wang bukan sekadar miliarder muda. Dia adalah arsitek AI yang melihat setiap terobosan lebih dulu. Scale AI membantu melatih model untuk perusahaan terbesar dunia, dari chatbot hingga sistem pertahanan militer senilai $350 juta untuk Pentagon. Wang tahu algoritma mana yang berhasil, mana yang gagal, dan ke arah mana industri akan bergerak.
Dia membangun, mengamati, lalu meniru dengan lebih baik. Strateginya sederhana:
- Bantu semua perusahaan besar membangun AI mereka,
- Pelajari kekuatan dan kelemahan mereka,
- Bangun produk yang lebih unggul dengan data terbaik.
Jalan Menuju Dominasi AI
Scale AI kini tidak hanya menjadi rekanan. Mereka bersiap menjadi pemain utama. Dengan kekayaan data yang tak tertandingi dan akses ke semua perusahaan AI besar, Wang tengah menyiapkan produk-produk buatan sendiri yang bisa mengguncang industri AI di dunia.
Sementara perusahaan seperti Anthropic, OpenAI, dan Google sibuk menyempurnakan model masing-masing, Wang sudah melihat semuanya; Claude, GPT-5, Gemini, LLaMA, Pi, Mistral. Saat ini ia sedang membangun sesuatu di atas mereka semua dan menjadi konsultan mereka sebelumnya.
Superintelligence Bukan Lagi Mimpi
Apa sebenarnya “superintelligence” yang diidamkan Meta?
Ini adalah level AI yang melampaui kecerdasan manusia. Sebuah entitas digital yang tidak hanya bisa berpikir dan memahami, tapi juga mengantisipasi dan mengendalikan. Meta tahu bahwa untuk mencapainya, bukan hanya dibutuhkan kecerdasan, tapi juga kendali atas data dan infrastruktur pelatihan.
Wang sudah memilikinya. Dia Bukan Sekadar Jenius Teknik tapi Wang menjadi seorang yang sangat stratejik. Alexandr Wang bukan hanya tentang teknologi. Dia memahami geopolitik, strategi bisnis, dan nilai sebuah rahasia. Itulah sebabnya dia dipercaya mengembangkan sistem pertahanan cyber untuk militer AS dan model prediksi aktivitas musuh di medan perang.
Orang-orang menyebutnya sebagai “Elon Musk berikutnya.” Tapi Wang bukan Elon. Dia lebih tenang, lebih tertutup, dan jauh lebih strategis.
Meta Sudah Menang Sebelum Perang Dimulai
Perusahaan teknologi lain kini baru menyadari: mereka telah secara sukarela menyerahkan blueprint mereka kepada pesaing terbesar mereka. Scale AI tahu isi dalam dapur OpenAI, strategi Google, dan kekurangan Meta. Kini, semua pengetahuan itu dibawa Wang ke laboratorium ‘Superintelligence’ Meta, dengan kompensasi sembilan digit yang mencerminkan betapa tak ternilainya peran sang maestro data ini.
Akhirnya…
Ini bukan hanya soal membangun AI yang lebih pintar. Ini adalah soal mengendalikan infrastruktur yang membuat AI menjadi mungkin. Satu orang dapat mengendalikan semua algoritma AI yang dipakai perusahaan di dunia. Alexandr Wang telah membangunnya. Dan sekarang, seluruh dunia teknologi mulai menyadari: merekalah yang sudah tertinggal, bahkan sebelum permainan dimulai.
Bias Informasi dari AI Sangat Berbahaya
Bias informasi dari AI tidak muncul begitu saja—ia bisa diakibatkan atau bahkan sengaja dimanipulasi oleh berbagai pihak dengan cara tertentu yang menguasai algoritma dan cara kerja machine learning. Berikut adalah pihak-pihak yang dapat menyebabkan bias informasi dalam AI dan cara mereka melakukannya:
1. Developer dan Engineer AI
Cara membuat Bias data AI dengan cara:
- Dataset yang tidak representatif
→ Menggunakan data pelatihan yang hanya mewakili kelompok tertentu, misalnya dominan dari kelompok politik, partai politik, ideologi, suku, agama, ras, negara Barat, laki-laki, kulit putih, dsb. - Preprocessing yang selektif
→ Menyaring, membersihkan, atau membobotkan data secara subjektif sebelum digunakan. - Modeling decisions
→ Memilih parameter atau algoritma yang mengutamakan efisiensi atau hasil tertentu, mengorbankan keberagaman atau fairness.
2. Perusahaan Teknologi/Pemilik Platform
- Optimisasi untuk engagement
→ Algoritma disesuaikan agar menampilkan konten yang memicu klik, reaksi, atau interaksi—yang cenderung memperkuat opini ekstrem atau konfirmasi bias pengguna. - Pemilihan label/klasifikasi tertentu
→ Menentukan apa yang dianggap “benar”, “salah”, “berbahaya”, atau “netral” berdasarkan agenda perusahaan atau tekanan pemerintah/investor. - Penghilangan konten tertentu
→ Shadow banning, downranking, atau bahkan penghapusan otomatis pada narasi tertentu. Melalukan sensor terhadap hal-hal yang tidak diinginkan oleh pemilik platform
3. Pemerintah / Otoritas Politik
- Regulasi konten atau tekanan hukum
→ Memaksa AI untuk mengikuti narasi resmi dan mengabaikan narasi tandingan (misalnya dalam negara otoriter). - Penyisipan narasi propaganda
→ Mengisi dataset dengan konten yang mendukung ideologi tertentu (misalnya melalui media milik negara). - Pembatasan sumber informasi
→ Melarang akses AI ke situs/media yang dianggap berbahaya bagi stabilitas politik atau oposisi.
4. Kelompok Aktivis atau Pengguna Terorganisir
- Data poisoning
→ Secara massal mengunggah data palsu atau memanipulasi dataset agar AI belajar pola yang salah atau berat sebelah. Sekelompok Buzzer dalam jumlah besar bisa memainkan peran data poisoning ini untuk menjadikan misinformasi dan malinformasi - Brigading & review bombing
→ Mendorong ribuan pengguna untuk melakukan aksi terkoordinasi seperti memberikan rating ekstrem, komentar manipulatif, atau memancing AI memberikan jawaban tertentu. - Prompt injection
→ Memasukkan instruksi tersembunyi ke dalam data input agar AI menghasilkan respon yang terdistorsi.
5. Media Massa dan Content Creator
- Produksi konten masif yang bias
→ Jika algoritma dilatih menggunakan konten berita atau opini yang tidak netral, AI akan menyerap bias tersebut. - Framing dan pemilihan kata
→ Kata-kata seperti “radikal,” “bermasalah,” atau “patriotik” memiliki konotasi ideologis yang dapat menular ke sistem AI.
6. Penguji atau Auditor Yang Tidak Independen
- Menguji AI dengan dataset yang dikurasi
→ Hanya mengevaluasi AI dengan data yang menguntungkan citra model, menyembunyikan kelemahan atau ketimpangan hasil. - Mengubah kriteria evaluasi keberhasilan
→ Misalnya, hanya mengukur akurasi, tanpa mempertimbangkan fairness terhadap minoritas atau hasil berbeda antar demografi.
Bias informasi dari AI bisa tidak disengaja (implisit) atau sengaja dimanipulasi (eksplisit) oleh pihak-pihak yang memiliki kekuasaan atas data, model, dan distribusi informasi. Oleh karena itu, pengembangan dan penggunaan AI memerlukan prinsip transparansi, akuntabilitas, dan audit independen. Dari uraian tersebut, Anda dapat membayangkan seberapa sangat strategis dan berbahaya seorang Alexandr Wang jika ternyata dia memiliki agenda terselubung, atau menjadi double agent dan kepentingan politik tertentu, tidak hanya sekedar menjadi teknokrat.
Penulis: Danny Wibisono
Editor: Hari Tri Wasono