Google Perkenalkan Gemini 2.5 Flash Lite: Model AI Paling Efisien dengan Biaya Terjangkau

Google Rilis Gemini 2.5 Flash Lite: Generasi AI Terbaru yang Hemat Biaya

Google kembali meramaikan ranah kecerdasan buatan (AI) dengan memperkenalkan Gemini 2.5 Flash Lite, anggota termuda dari keluarga Gemini 2.5. Model ini diklaim sebagai yang tercepat dan paling efisien dari segi biaya di antara model Gemini lainnya. Pengumuman ini disampaikan oleh Senior Director, Product Management Gemini, Tulsee Doshi, melalui blog resmi Google.

Meski masih dalam tahap pengembangan beta dan belum tersedia untuk publik, Gemini 2.5 Flash Lite sudah dapat diakses oleh para pengembang melalui Google AI Studio dan platform Vertex AI. Google mengundang para pengembang untuk menjajal model terbaru ini dan memberikan masukan.

Performa Unggul dan Efisiensi Biaya

Menurut pengumuman resmi Google, Gemini 2.5 Flash Lite menunjukkan performa yang lebih baik dibandingkan pendahulunya, Gemini 2.0 Flash Lite, dalam berbagai pengujian benchmark. Peningkatan ini terlihat pada pengujian pemrograman, penyelesaian tugas matematika, sains, logika penalaran, hingga tugas-tugas multimoda.

Secara khusus, Gemini 2.5 Flash Lite mencatatkan skor tinggi pada pengujian GPQA (Graduate-Level Google-Proof Q7A Benchmark), AIME (American Invitational Mathematics Examination), serta LiveCodeBench (pengukuran kemampuan pengkodean LLM dalam konteks pemrograman). Skor ini secara konsisten melampaui Gemini 2.0 Flash Lite. Bahkan, dalam beberapa pengujian seperti penalaran visual, performa multi-lingual, dan AIME 2025, skornya hampir menyaingi model Gemini 2.5 Flash.

Salah satu keunggulan utama Gemini 2.5 Flash Lite adalah biaya operasionalnya yang rendah. Dalam mode Standard dan Thinking, biaya yang dikeluarkan sekitar 0,10 dollar AS per juta token dan 0,40 dollar AS per juta token output. Namun, perlu dicatat bahwa rincian biaya token untuk mode Thinking akan lebih tinggi untuk pemaparan yang lebih akurat. Dengan demikian, biaya penggunaan aktual akan bervariasi.

Ideal untuk Tugas Berbobot Tinggi dan Latensi Rendah

Dengan kombinasi performa tinggi dan biaya rendah, Gemini 2.5 Flash Lite sangat cocok untuk mengerjakan tugas-tugas berbobot tinggi dan berlatensi rendah, seperti penerjemahan teks dan klasifikasi. Hasil benchmark menunjukkan skor tinggi pada pengujian FACTS Grounding (86,8 persen) dan Multilingual MMLU (84,5 persen).

  • FACTS Grounding: Kemampuan model memberikan respons berdasarkan informasi faktual dan dapat diverifikasi, sehingga mengurangi risiko halusinasi informasi.
  • Multilingual MMLU: Pengujian yang mengevaluasi pengetahuan umum dan kemampuan penalaran model dalam berbagai bahasa.

Selain itu, Gemini 2.5 Flash Lite juga menunjukkan skor tinggi pada penalaran visual (MMMU) dengan skor 72,9 persen, serta penalaran dan pemahaman mengenai gambar dengan skor 57,5 persen.

Dukungan Multi-Modal dan Integrasi

Seperti model Gemini 2.5 series lainnya, Gemini 2.5 Flash Lite mendukung input multi-modal yang terintegrasi, seperti Google Search, eksekusi kode, dan pemahaman konteks.

Bersamaan dengan peluncuran Gemini 2.5 Flash Lite, Google juga mengumumkan ketersediaan resmi model AI Gemini 2.5 Flash dan Pro untuk publik. Kedua model ini telah mencapai skor benchmark yang tinggi dalam berbagai pengujian dan telah melalui serangkaian pengembangan dan perbaikan. Kedua model ini juga sudah tersedia di Android dan iOS melalui aplikasi Gemini.

Seluruh model dalam keluarga Gemini 2.5 dirancang untuk penalaran hibrida, yaitu sistem yang menggabungkan berbagai pendekatan pemecahan masalah, mulai dari penalaran logika hingga metode statistik. Integrasi ini memungkinkan model AI menghasilkan solusi yang optimal untuk tugas-tugas kompleks.

Strategi integrasi ini bertujuan untuk menyeimbangkan kinerja tinggi dengan biaya dan latensi yang rendah. Google memposisikan ketiga model Gemini 2.5 sebagai bagian dari Pareto Front, yang mengutamakan kecepatan dan efisiensi biaya.

Pareto Front dalam konteks AI adalah kemampuan memberikan solusi optimal pada permasalahan optimasi multi-objektif. Model ini memungkinkan pengguna mendapatkan solusi paling efektif sesuai dengan kebutuhan dan prioritas di antara tujuan-tujuan yang saling bertentangan.