Seiring kecerdasan buatan semakin tertanam dalam dunia kerja global, perdebatan mengenai dampak sebenarnya terhadap produktivitas dan ekonomi semakin menguat. Perusahaan-perusahaan AI terkemuka seperti OpenAI mempromosikan studi yang menyoroti peningkatan efisiensi yang signifikan, sementara penelitian akademis eksternal sering kali memberikan gambaran yang lebih skeptis. Perbedaan ini bukan hanya perselisihan akademis; hal ini kini memicu ketegangan internal di dalam OpenAI sendiri, mempertanyakan peran perusahaan sebagai peneliti objektif versus advokat untuk teknologinya sendiri.
OpenAI dan Anthropic Merilis Studi Tandingan tentang Produktivitas AI
Sebagai tanggapan langsung terhadap gelombang penelitian akademis yang skeptis, OpenAI dan pesaingnya Anthropic telah merilis laporan baru yang mendukung manfaat produktivitas dari alat-alat AI mereka. Laporan OpenAI berjudul "The State of Enterprise AI", yang diterbitkan pada 8 Desember 2025, didasarkan pada survei terhadap 9.000 pekerja. Laporan tersebut mengklaim bahwa penggunaan ChatGPT menghemat rata-rata 40 hingga 60 menit waktu kerja per hari bagi para profesional, dengan 75% responden melaporkan peningkatan baik dalam kecepatan maupun kualitas pekerjaan mereka. Demikian pula, Anthropic merilis studi internal pada akhir November yang menunjukkan asisten AI Claude-nya dapat mengurangi waktu penyelesaian tugas kerja tertentu hingga 80%, dari 90 menit menjadi 18 menit. Kedua perusahaan menggunakan data ini untuk memperkuat argumen investasi perusahaan yang berkelanjutan dalam AI, menandingi narasi yang mempertanyakan pengembalian investasinya.
Klaim Produktivitas Utama dari Perusahaan AI (2025)
| Perusahaan | Laporan/Studi | Klaim Manfaat | Ukuran Sampel | Peringatan Utama |
|---|---|---|---|---|
| OpenAI | "The State of Enterprise AI" | Menghemat 40-60 menit/hari kerja; 75% melaporkan kecepatan/kualitas lebih baik. | 9.000 pekerja | Laporan berfokus pada pemasaran; kurang rincian metodologi mendalam. |
| Anthropic | Analisis Internal Claude | Memotong waktu tugas hingga 80% (rata-rata 90 menit menjadi 18 menit). | 100.000 percakapan | Perkiraan mungkin "melebih-lebihkan" efek karena tidak menghitung pekerjaan di luar obrolan AI. |
Kritik Balik Akademis dan Konsep "Workslop"
Laporan-laporan optimis dari industri AI sangat kontras dengan temuan dari lembaga akademis bergengsi yang dirilis lebih awal pada tahun 2025. Sebuah studi dari MIT pada Agustus menyimpulkan bahwa 95% organisasi yang berinvestasi dalam produk bisnis AI "tidak menemukan pengembalian sama sekali" dari investasi mereka, yang diperkirakan totalnya mencapai 30-40 miliar dolar AS. Penelitian tersebut menunjukkan bahwa sebagian besar program percontohan AI mandek tanpa memberikan dampak keuntungan yang terukur. Tak lama setelahnya, sebuah inisiatif dari Harvard Business Review memperkenalkan konsep "workslop"—pekerjaan yang "menyamar sebagai pekerjaan yang baik, tetapi tidak memiliki substansi untuk secara berarti memajukan suatu tugas"—dengan argumen bahwa banyak penggunaan AI profesional masuk ke dalam kategori ini. Studi-studi ini telah menciptakan tantangan kredibilitas yang signifikan bagi perusahaan-perusahaan AI yang berusaha membenarkan pengeluaran korporat skala besar.
Titik Balas Akademik & Industri (2025)
- Studi MIT (Agustus): Menemukan 95% organisasi melihat "nol pengembalian" pada investasi AI yang totalnya USD 30-40 miliar.
- Harvard Business Review: Menggambarkan banyak penggunaan AI profesional sebagai "workslop"—pekerjaan tidak substantif yang tidak secara berarti memajukan tugas.
- Tanggapan COO OpenAI Brad Lightcap: Menepis studi akademik, menyatakan bahwa studi-studi itu "tidak pernah sejalan dengan apa yang kami lihat dalam praktik."
Eksodus Internal dan Dugaan Pergeseran Prioritas Penelitian
Tekanan untuk menyajikan narasi positif tampaknya menyebabkan ketegangan di dalam OpenAI. Menurut laporan dari WIRED, setidaknya dua karyawan di tim penelitian ekonomi OpenAI telah hengkang dalam beberapa bulan terakhir, dengan salah satunya menyebutkan ketegangan yang semakin besar antara analisis yang ketat dan berfungsi sebagai "lengan advokasi de facto". Mantan staf Tom Cunningham dilaporkan hengkang pada September, menyatakan dalam pesan internal bahwa menjadi sulit untuk menerbitkan penelitian berkualitas tinggi yang mungkin menyoroti dampak ekonomi negatif, seperti penggantian pekerjaan. Ini menyusul kepergian mantan kepala penelitian kebijakan Miles Brundage pada Oktober 2024, yang juga menyebutkan pembatasan dalam penerbitan. Dugaan-dugaan ini menunjukkan pergeseran strategis di dalam OpenAI ke arah mendukung penelitian yang menggambarkan teknologinya dalam cahaya yang menguntungkan seiring dengan pendalaman kemitraan multijutaan dolar dengan korporasi dan pemerintah.
Keberangkatan Tim Penelitian OpenAI yang Dilaporkan (Akhir 2024-2025)
- Tom Cunningham (Penelitian Ekonomi): Keluar September 2025. Diduga menyebutkan kesulitan mempublikasikan penelitian yang tidak berfungsi sebagai advokasi.
- Miles Brundage (Kepala Penelitian Kebijakan): Keluar Oktober 2024. Menyebutkan pembatasan dalam mempublikasikan topik-topik penting seiring perusahaan menjadi "berprofil tinggi."
Debat Metodologi dan Sikap Optimis Industri
Terlepas dari berita positif dari laporan mereka sendiri, baik OpenAI maupun Anthropic menyertakan peringatan yang mengungkap kelemahan metodologis. Studi Anthropic secara eksplisit mencatat bahwa perkiraan penghematan waktunya "mungkin melebih-lebihkan efek produktivitas saat ini" karena tidak memperhitungkan pekerjaan manusia yang dilakukan di luar percakapan AI. Laporan OpenAI memberikan sedikit detail tentang bagaimana metrik menguntungkannya dipecah, menyebabkan para kritikus mencapnya berfokus pada pemasaran daripada ketat secara ilmiah. Meskipun demikian, industri tetap secara terbuka menantang. COO OpenAI Brad Lightcap secara langsung menolak studi MIT dan Harvard, mengatakan kepada Bloomberg, "Mereka tidak pernah sepenuhnya sejalan dengan apa yang kami lihat dalam praktik." Kepercayaan diri ini dihadapkan pada latar belakang tantangan fisik dan politik, termasuk ancaman kekurangan tembaga untuk pusat data dan kekhawatiran publik atas dampak kesehatan dan ekonomi dari ledakan infrastruktur.
Jalan yang Berbeda dari Pesaing dan Lanskap Politik
Pendekatan OpenAI yang diduga hati-hati dalam menerbitkan penelitian ekonomi negatif membedakannya dari beberapa pesaing. CEO Anthropic, Dario Amodei, berulang kali memperingatkan bahwa AI dapat mengotomatisasi hingga setengah dari pekerjaan kerah putih tingkat pemula pada tahun 2030, merumuskan prediksi semacam itu sebagai hal yang diperlukan untuk debat publik. Peringatan-peringatan ini telah menarik kritikan tajam dari pemerintahan Trump, dengan penasihat khusus Gedung Putih David Sacks menuduh Anthropic melakukan "penakutan". Strategi OpenAI tampaknya dikalibrasi untuk menavigasi lingkungan politik yang kompleks ini, di mana berbagi "statistik suram" dapat mempersulit kemitraan dan citra publiknya. Penelitian ekonomi perusahaan kini terintegrasi erat dengan strategi kebijakannya, dipimpin oleh kepala urusan global Chris Lehane, seorang operator politik veteran yang dikenal sebagai "master bencana" dari masa jabatannya di Gedung Putih era Clinton.
Implikasi yang Lebih Luas untuk Transparansi dan Kepercayaan AI
Konflik yang muncul antara budaya penelitian internal OpenAI dan advokasi bisnisnya menyoroti dilema sentral bagi laboratorium AI terkemuka. Mereka diberi wewenang yang tidak biasa untuk melaporkan sendiri tentang risiko dan kemampuan teknologi yang mereka kejar untuk diterapkan, namun mereka juga memiliki insentif komersial dan politik yang sangat besar untuk mengendalikan narasi. Seiring pengaruh AI terhadap ekonomi tumbuh, dengan 44% warga Amerika muda takut akan berkurangnya peluang kerja menurut survei Harvard Kennedy School, kebutuhan akan penelitian independen dan transparan menjadi lebih kritis. Kepergian para peneliti dari OpenAI dan perdebatan yang sedang berlangsung mengenai klaim produktivitas menunjukkan bahwa mempertahankan kepercayaan publik akan membutuhkan pendekatan yang lebih seimbang—satu yang mengakui baik potensi maupun gangguan mendalam dari kecerdasan buatan.
