Untuk menginstall Whisper (OpenAI Whisper / faster-whisper) di AWS EC2, saya sarankan memilih keluarga instance sebagai berikut:
Rekomendasi Singkat
| Kebutuhan | Pilihan Terbaik | Alasan Utama | Perkiraan Harga (On-Demand US East) |
|---|---|---|---|
| Budget / Hemat biaya | g4dn.xlarge | Paling murah, cukup untuk Whisper | ~$0.53 / jam |
| Performa lebih baik + future-proof | g5.xlarge atau g5.2xlarge | Lebih kencang, VRAM lebih besar, lebih efisien | ~$1.01 / jam (xlarge) |
Perbandingan Detail g4dn.xlarge vs G5
| Spesifikasi | g4dn.xlarge | g5.xlarge | g5.2xlarge |
|---|---|---|---|
| GPU | 1x NVIDIA T4 (16 GB VRAM) | 1x NVIDIA A10G (24 GB VRAM) | 1x NVIDIA A10G (24 GB VRAM) |
| vCPU | 4 | 4 | 8 |
| RAM | 16 GB | 16 GB | 32 GB |
| Performa Inference | Cukup baik | ~2β3x lebih cepat daripada T4 | Lebih baik lagi |
| Cocok untuk Whisper | Ya (terutama small/medium/large dengan quantization) | Sangat direkomendasikan | Terbaik jika butuh throughput tinggi |
| Harga relatif | Paling murah | ~2x lebih mahal | ~2.3x lebih mahal |
Mana yang Harus Dipilih?
Pilih g4dn.xlarge jika:
- Kamu ingin biaya seminimal mungkin.
- Transkripsi tidak terlalu sering (batch processing, bukan real-time).
- Pakai model Whisper medium atau large dengan INT8 / FP16 quantization (faster-whisper atau CTranslate2).
- Sudah terbukti banyak orang pakai untuk Whisper.
Pilih G5 (g5.xlarge atau g5.2xlarge) jika:
- Ingin kecepatan lebih tinggi (transkripsi lebih cepat, latency lebih rendah).
- Sering proses audio panjang atau banyak file sekaligus.
- Mau pakai model Whisper large-v3 tanpa quantization agresif.
- Planning scale ke depan (G5 jauh lebih future-proof karena arsitektur Ampere lebih baru).
β g5.2xlarge biasanya sweet spot karena CPU dan RAM lebih besar, sehingga pre/post-processing tidak bottleneck.
Catatan Penting untuk Whisper
- Whisper large butuh sekitar 8β10 GB VRAM di FP16.
β g4dn.xlarge (16 GB) masih cukup, tapi g5 (24 GB) lebih lega. - Gunakan faster-whisper atau insanely-fast-whisper supaya jauh lebih cepat dan hemat VRAM.
- Dengan quantization (INT8), bahkan model large bisa jalan nyaman di T4.
Saran Praktis Installasi
- Launch instance dengan Deep Learning AMI (Ubuntu) β sudah include CUDA, PyTorch, dll.
- Install Whisper:
pip install faster-whisper # atau openai-whisper - Test dulu dengan model
large-v3ataularge-v3-turbo.
Kesimpulan saya:
- Kalau budget ketat β g4dn.xlarge (paling populer untuk Whisper).
- Kalau mau performa bagus dan worth the money β g5.xlarge atau g5.2xlarge.
Kamu mau pakai untuk apa? (batch processing, real-time, berapa banyak audio per hari?) Biar saya bisa kasih rekomendasi yang lebih pas.