Google Cloud Umumkan Serangkaian Ekosistem Teknologi AI


Google Cloud New

Google Cloud

Di Google Cloud Next '23, Google Cloud mengumumkan serangkaian kemitraan baru dan inovasi produk untuk memberdayakan setiap bisnis dan organisasi sektor publik di Asia Tenggara.
 
Tujuannya untuk dengan mudah bereksperimen dan membangun dengan model bahasa besar (LLM) dan model generative AI (gen AI), menyesuaikannya dengan data perusahaan, dan dengan mudah mengintegrasikan dan menyebarkannya ke aplikasi dengan fitur built-in privasi, keamanan, dan AI yang bertanggung jawab.
 
Kemampuan dan aplikasi yang membuat gen AI begitu revolusioner menuntut infrastruktur yang paling canggih dan mumpuni. Google Cloud mengklaim berinvestasi di data center dan jaringannya selama 25 tahun, dan sekarang memiliki jaringan global 38 cloud region, dengan tujuan beroperasi sepenuhnya dengan energi bebas karbon pada tahun 2030.
 
Jaringan global ini mencakup cloud region di Indonesia dan Singapura, dengan cloud region baru akan datang ke Malaysia dan Thailand. Infrastruktur AI yang dioptimalkan Google Cloud adalah pilihan utama untuk melatih dan melayani model gen AI, dengan lebih dari 70% unicorn gen AI yang sudah membangun di Google Cloud, termasuk AI21, Anthropic, Cohere, Jasper, Replit, Runway, dan Typeface.
 
Untuk membantu organisasi di Asia Tenggara menjalankan beban kerja AI mereka yang paling berat dengan biaya efektif dan skalabilitas, Google Cloud hari ini meluncurkan peningkatan signifikan pada portofolio infrastruktur AI yang dioptimalkan mereka: Cloud TPU v5e—tersedia dalam pratinjau publik—dan ketersediaan umum dari A3 VM dengan GPU Nvidia H100.
 
Cloud TPU v5e adalah akselerator AI khusus Google Cloud yang paling hemat biaya, serbaguna, dan skalabilitas hingga saat ini. Sekarang, customer dapat menggunakan platform Cloud Tensor Processing Unit (TPU) tunggal untuk menjalankan pelatihan AI skala besar dan inferensi.

Cloud TPU v5e memberikan kinerja pelatihan hingga 2 kali lebih tinggi per dolar dan kinerja inferensi hingga 2,5 kali lebih tinggi per dolar untuk LLM dan model gen AI dibandingkan dengan Cloud TPU v4, sehingga memungkinkan lebih banyak organisasi untuk melatih dan menyebarkan model AI yang lebih besar dan lebih kompleks.
 
Cloud TPU v5e saat ini tersedia dalam pratinjau publik di cloud region Las Vegas dan Columbus Google Cloud, dengan rencana untuk diperluas ke wilayah lain, termasuk cloud region Singapura Google Cloud tahun ini.
 
A3 VM, superkomputer yang ditenagai oleh Unit Pemrosesan Grafis (GPU) H100, akan tersedia secara umum bulan depan, memungkinkan organisasi mencapai kinerja pelatihan 3 kali lebih cepat dibandingkan dengan A2, generasi sebelumnya.
 
A3 VM dirancang khusus untuk melatih dan melayani beban kerja LLM dan gen AI yang sangat demanding. Di Google Cloud Next '23, Google Cloud dan NVIDIA juga mengumumkan integrasi baru untuk membantu organisasi memanfaatkan teknologi NVIDIA yang sama yang digunakan oleh tim riset Google DeepMind dan Google selama dua tahun terakhir.
 
Mark Lohmeyer, Vice President and General Manager, Compute and ML Infrastructure, Google Cloud, mengatakan selama dua dekade, mereka telah membangun beberapa kemampuan AI terdepan di industri: dari penciptaan arsitektur Transformer Google yang memungkinkan gen AI, hingga infrastruktur AI yang dirancang untuk memberikan skala global dan kinerja yang dibutuhkan oleh produk Google yang melayani miliaran pengguna seperti YouTube, Gmail, Google Maps, Google Play, dan Android.
 
"Kami menawarkan solusi lengkap untuk AI, dari infrastruktur komputasi yang dioptimalkan untuk AI hingga perangkat lunak dan layanan end-to-end yang mendukung siklus penuh pelatihan model, penyesuaian, dan penayangan di skala global,” ujar Mark seperti dikutip dari medcom.id, Rabu.
 
Di atas infrastruktur kelas dunia Google Cloud, perusahaan menghadirkan Vertex AI, platform AI komprehensif yang memungkinkan pelanggan mengakses, menyetel, dan menyebarkan model first-party, third-party, dan open-source, serta membangun dan menskalakan aplikasi AI kelas perusahaan. Setelah peluncuran gen AI di Vertex AI, Google Cloud sekarang memperluas kemampuan Vertex AI secara signifikan.
 
Google mengaku ketat mengevaluasi modelnya untuk memastikan mereka memenuhi Prinsip AI Bertanggung Jawab. Saat menggunakan Vertex AI, customer mempertahankan kendali penuh atas data mereka. Data tersebut tidak perlu meninggalkan tenant cloud pelanggan, dienkripsi selama transit dan saat istirahat, dan tidak dibagikan atau digunakan untuk melatih model Google.
 
Thomas Kurian, CEO, Google Cloud, mengatakan sama pentingnya dengan menemukan dan melatih model yang tepat adalah mengendalikan data. "Sejak awal, kami merancang Vertex AI untuk memberi kontrol penuh dan pemisahan data, kode, dan kekayaan intelektual, dengan nol kebocoran data."
 
"Saat Anda menyesuaikan dan melatih model Anda dengan Vertex AI dengan dokumen dan data pribadi dari aplikasi SaaS, database, atau sumber kepemilikan lainnya, Anda tidak mengekspos data itu ke model dasar."
 
"Kami mengambil snapshot model, memungkinkan Anda melatih dan merangkumnya bersama dalam konfigurasi pribadi, memberi Anda kontrol penuh atas data Anda. Prompt dan data Anda, serta masukan pengguna saat waktu inferensi, tidak digunakan untuk meningkatkan model kami dan tidak dapat diakses oleh pelanggan lain.”


Bagikan artikel ini