loader image

OpenAI Buat Cip Pemrosesan AI

OpenAI mengambil langkah besar dalam pengembangan kecerdasan buatan (AI) dengan mulai merancang chip internal sendiri. Langkah ini dilakukan untuk menekan biaya komputasi, meningkatkan efisiensi energi, dan mempercepat performa model AI generasi terbaru. Dengan inovasi ini, OpenAI berharap dapat memenuhi permintaan global yang terus meningkat dan memperkuat posisi di industri AI.

Menurut laporan Reuters (30/10), OpenAI bekerja sama dengan Broadcom dan Taiwan Semiconductor Manufacturing Company (TSMC). Kolaborasi ini bertujuan untuk mendiversifikasi rantai pasok, mengamankan kapasitas produksi, dan mengurangi ketergantungan pada GPU pihak ketiga, terutama Nvidia, yang menguasai lebih dari 80% pasar GPU AI saat ini.


Tantangan Biaya Komputasi Tinggi

Biaya pelatihan model AI dan operasional layanan seperti ChatGPT sangat besar. Oleh karena itu, OpenAI memproyeksikan kerugian sekitar US$5 miliar tahun ini, sementara pendapatannya tercatat US$3,7 miliar. Komputasi menjadi biaya terbesar, sehingga perusahaan ingin mengoptimalkan pemakaian chip dan memperluas pilihan pemasok.

Selain itu, tingginya biaya energi dan keterbatasan pasokan GPU mendorong OpenAI untuk mencari alternatif jangka panjang. Hal ini juga mencerminkan tantangan yang dihadapi raksasa teknologi lain, seperti Amazon, Meta, Google, dan Microsoft, dalam mengelola infrastruktur AI yang besar.

Sam Altman, CEO OpenAI, menekankan:

“Bermitra dengan Broadcom adalah langkah penting untuk membangun infrastruktur yang dibutuhkan agar AI dapat memberikan manfaat nyata bagi masyarakat dan bisnis.”


Fokus pada Inferensi dan Desain Chip Internal

Chip AI yang dikembangkan OpenAI akan fokus pada inferensi, yaitu proses menjalankan model AI untuk membuat prediksi atau keputusan. Selain itu, Broadcom akan membantu OpenAI mendesain, memproduksi, dan menerapkan chip ini di pusat data OpenAI serta mitra global.

Proyek ini dijadwalkan mulai pada paruh kedua 2026 dan ditargetkan selesai pada akhir 2029. Sistem ini mencakup:

  • Prosesor: Mempercepat pemrosesan data AI.
  • Memori khusus: Meningkatkan efisiensi akses data.
  • Komponen jaringan: Dibangun di atas infrastruktur Ethernet Broadcom untuk konektivitas cepat.

Dengan chip internal, OpenAI berharap dapat menekan biaya operasional, meningkatkan efisiensi energi, dan mempercepat performa model AI, terutama untuk generasi model mendatang seperti GPT-5 dan video generatif Sora.


Meningkatkan Kapasitas Komputasi hingga 5 Kali Lipat

Saat ini, OpenAI mengoperasikan infrastruktur sekitar 2 gigawatt (GW) untuk mendukung ChatGPT dan penelitian AI. Namun, proyek chip internal ditargetkan meningkatkan kapasitas hingga 10 GW, atau lima kali lipat lebih besar.

Sam Altman menjelaskan bahwa kapasitas saat ini cukup untuk mengembangkan model GPT-5. Tetapi, permintaan global yang terus meningkat membutuhkan kapasitas lebih besar. OpenAI melayani lebih dari 800 juta pengguna aktif mingguan di seluruh dunia, termasuk perusahaan, pengembang, dan bisnis kecil. Oleh karena itu, peningkatan kapasitas sangat penting agar layanan AI tetap cepat dan stabil.


Strategi Diversifikasi Pasokan Chip

OpenAI juga mempertimbangkan penggunaan chip AMD selain GPU Nvidia untuk mengatasi keterbatasan pasokan. Selain itu, perusahaan membentuk tim khusus yang terdiri dari sekitar 20 insinyur chip berpengalaman, termasuk ahli dalam Tensor Processing Units (TPU) Google.

Langkah ini membantu OpenAI mengamankan pasokan chip yang konsisten, mengelola biaya, dan tetap kompetitif di pasar AI global. Dengan begitu, perusahaan bisa memastikan performa model AI tetap optimal dan biaya operasional terkendali.


Manfaat Chip Internal untuk Ekosistem AI

Desain chip internal ini membawa beberapa keuntungan strategis:

  1. Efisiensi energi lebih tinggi: Chip khusus dapat mengurangi konsumsi daya dibandingkan GPU umum.
  2. Performa lebih cepat: Model AI dapat berjalan lebih cepat, termasuk untuk inferensi real-time.
  3. Kontrol penuh atas rantai pasok: Mengurangi ketergantungan pada vendor eksternal.
  4. Skalabilitas besar: Kapasitas komputasi dapat meningkat sesuai permintaan global.

Sam Altman menambahkan:

“Mengembangkan chip akselerator AI kami sendiri akan memperkuat ekosistem mitra global. Semua pihak yang terlibat dapat membangun kapasitas yang dibutuhkan untuk mendorong perkembangan AI agar memberikan manfaat bagi seluruh umat manusia.”


Kesimpulan

Upaya OpenAI mendesain chip AI internal menandai babak baru dalam industri kecerdasan buatan. Dengan dukungan Broadcom dan TSMC, perusahaan ini siap menghadapi tantangan biaya komputasi tinggi, permintaan global yang terus meningkat, dan keterbatasan pasokan GPU.

Langkah ini tidak hanya akan meningkatkan performa AI, tetapi juga membantu OpenAI tetap kompetitif, efisien, dan ramah lingkungan. Dengan strategi ini, AI generasi berikutnya dapat lebih cepat, hemat energi, dan siap digunakan secara global, baik oleh individu maupun perusahaan.

Reverensi fortuneidn.com , kompas.com

Baca Artikel Lainnya Klik disini

Bagikan
Bayu
Bayu

I am a web developer with strong programming experience, specializing in building responsive and scalable web applications using modern technologies.

Articles: 62

Leave a Reply

Your email address will not be published. Required fields are marked *