Model AI adalah alat yang hebat, tetapi bagaimana jika Anda dapat menjadikannya ahli sejati di bidang Anda? 

Di situlah penyempurnaan berperan. 

Dengan penyempurnaan, Anda dapat mengambil model AI umum dan melatihnya lebih lanjut untuk mengkhususkan pada kasus penggunaan unik Anda, apakah itu:

  • Pelayanan kesehatan
  • Keuangan
  • Pendidikan, atau sesuatu yang lain secara keseluruhan.

Salah satu model yang layak dijelajahi adalah Qwen 2.5 milik Alibaba—model bahasa besar yang tangguh dan serbaguna yang dirancang untuk berbagai tugas. 

Untuk menyelami lebih dalam semua yang ditawarkan Qwen dan mengapa hal itu penting, rincian LLM Alibaba ini adalah tempat yang baik untuk memulai.

Di blog ini, Anda akan mempelajari:

  • Apa itu fine-tuning?
  • Cara menyempurnakan Qwen 2.5 (cara non-teknis)
  • Praktik terbaik untuk menyempurnakan Qwen 2.5 (yang juga dapat Anda terapkan pada LLM lainnya)

Panduan mudah ini akan memandu Anda melalui seluruh proses penyempurnaan, menjadikannya sederhana dan mudah bagi pemula.

Apa itu fine-tuning dan mengapa Anda perlu mengetahuinya?

Penyetelan halus adalah proses mengambil model yang telah dilatih sebelumnya dan melatih setidaknya satu parameter internalnya, seperti bobot atau bias di dalam jaringan saraf, untuk membuatnya lebih sesuai dengan kebutuhan spesifik Anda.

Mari kita begini: Jika Qwen adalah berlian yang baru keluar dari tambang batu bara, maka fine-tuning adalah proses pemotongan dan pemolesan berlian tersebut menjadi sesuatu yang fungsional, seperti cincin berlian. 

Dibutuhkan sesuatu yang kuat dalam bentuk mentahnya dan membuatnya lebih:

  • Praktis
  • Sengaja
  • Disesuaikan dengan kasus penggunaan tertentu.

Inilah yang terjadi ketika model dasar seperti Qwen disempurnakan menjadi sesuatu seperti Qwen 2.5 Max. 

Hasilnya? 

Suatu model yang lebih akurat, lebih efisien, dan lebih cocok untuk aplikasi di dunia nyata.

Mengapa Fine-Tuning Penting?

Berikut wawasan utamanya: Model yang lebih kecil dan lebih teliti sering kali dapat mengungguli model generik yang lebih besar. 

Hal ini pertama kali ditunjukkan oleh OpenAI dengan model InstructGPT mereka, dan masih berlaku hingga saat ini.

Ini adalah salah satu keuntungan terbesar dari fine-tuning.


Anda tidak selalu memerlukan LLM serbaguna yang besar untuk mendapatkan kinerja tinggi untuk tugas tertentu.

Kamu bisa:

  • Ambil model sumber terbuka
  • Sempurnakan dari laptop Anda,

Dan bagian terbaiknya? 

Anda tidak perlu menjadi pengembang atau ilmuwan data.


Jika Anda sedikit paham teknologi, Anda siap melakukannya.

Mengapa Penyetelan Halus Membuat LLM Benar-benar Berguna

Anda mungkin memperhatikan hal ini setelah bermain-main dengan LLM: LLM bagus untuk pertanyaan umum, tetapi tidak begitu tajam jika menyangkut tugas-tugas khusus domain.

Di situlah fine-tuning benar-benar bersinar.

Hal ini terutama berlaku jika Anda melihat bagaimana Perusahaan rintisan dan raksasa teknologi AI Tiongkok memanfaatkan penyempurnaan untuk menciptakan model yang menyaingi model terbaik di Barat.

Katakanlah Anda ingin model berperilaku seperti penyetel klaim asuransi.


Anda dapat terus mengingatkannya dalam permintaan Anda untuk menanggapi dengan nada profesional dan pengetahuan tentang polis asuransi…

Atau

Anda bisa menyempurnakannya dengan contoh bagaimana seorang penyetel klaim berbicara dan bekerja.


Dengan cara ini, modelnya sudah “tahu”bagaimana bertindak—tidak diperlukan instruksi terus-menerus.

Itulah yang Anda dapatkan dengan fine-tuning

  • Respons yang lebih baik dan lebih tajam dengan perintah yang lebih pendek
  • Waktu respons lebih cepat (latensi inferensi lebih rendah)
  • Biaya komputasi lebih rendah
  • Model yang memahami domain Anda seperti seorang profesional

Jenis-jenis Fine-Tuning

Ada 3 cara umum untuk menyempurnakan model:

  1. Pembelajaran Mandiri:

Model belajar dari data yang tidak berlabel dengan memprediksi bagian teks (misalnya, kata-kata yang hilang).

  1. Pembelajaran Terbimbing:

Anda memberikan pasangan input-output pada model (pertanyaan + jawaban yang benar).

  1. Pembelajaran Penguatan:

Model belajar dengan mendapat umpan balik (seperti jempol ke atas/bawah) dan menyesuaikan perilakunya sesuai dengan umpan balik tersebut.

Apa itu Qwen 2.5 dan Mengapa Menggunakannya?

Qwen 2.5 adalah model bahasa besar (LLM) yang dikembangkan oleh Alibaba. 

Ini adalah bagian dari keluarga Qwen, yang mencakup berbagai ukuran model seperti 0,5B, 7B, dan bahkan 72B (“B” berarti miliaran parameter).

Ada dua jenis model Qwen:

  1. Model dasar:

Ini adalah model mentah yang telah dilatih sebelumnya. 

Mereka telah mempelajari pola bahasa umum dari banyak data, tetapi belum disesuaikan untuk tugas-tugas tertentu. 

Misalnya: Qwen2.5-7B.

  1. Model yang disesuaikan dengan instruksi:

Model-model ini disetel untuk mengikuti instruksi atau merespons seperti chatbot. 

Mereka dilatih pada tugas-tugas spesifik seperti:

  • Menjawab pertanyaan
  • Merangkum teks
  • Melakukan percakapan. 

Misalnya: Qwen2.5-7B-Instruct.

Dan jika Anda bertanya-tanya bagaimana pendekatan Alibaba dibandingkan secara global, pertarungan langsung antara OpenAI dan Alibaba LLM ini menyediakan konteks yang bermanfaat.

Saat Anda merujuk pada Qwen 2.5 Max, Anda mungkin mengacu pada versi Qwen 2.5 seri yang lebih besar atau lebih bertenaga. 

Ini bisa berupa model dasar atau model yang disesuaikan dengan instruksi, tergantung versi yang Anda gunakan.

Jika Anda ingin menyempurnakan Qwen untuk tugas Anda sendiri (seperti meringkas email atau mengklasifikasikan tiket dukungan pelanggan), Anda biasanya ingin memulai dengan model dasar dan melatihnya lebih lanjut dengan data Anda sendiri. 

Namun jika Anda membangun chatbot atau sesuatu yang lebih interaktif, memulai dari model yang disesuaikan dengan instruksi mungkin akan membuat pekerjaan Anda lebih mudah.

Mengapa Anda Harus Menggunakannya?

Selain semua fitur keren di atas, kami juga menggali apa yang dikatakan pengguna sebenarnya. 

Bagaimana dengan ulasannya? 

Cukup solid:

  • “Qwen 2.5 adalah pengubah permainan.”
  • “Qwen Max bagus.”
  • “Itu sedang ditiduri.”
  • “Mudah digunakan dan gratis—saya menggunakannya sepanjang waktu.”

Jadi jika Anda seorang pengembang, peneliti, atau pendiri perusahaan rintisan yang mencari model AI yang cerdas, cepat, dan fleksibel, Alibaba Qwen 2.5 Max patut dicoba.

Sentimen tersebut mencerminkan apa yang telah kita lihat di masyarakat. 

Nyatanya, tips rahasia ini tentang penggunaan Qwen 2.5 Max menunjukkan betapa fleksibel dan ramahnya terhadap pengembang.

Memulai dengan Alibaba Qwen 2.5 Max

Apakah Anda bersemangat untuk mencoba Alibaba Qwen 2.5 Max? 

Hebat! Mudah diakses dan diatur, bahkan jika Anda baru memulai.

Tempat Mengakses Qwen 2.5 Max

Anda dapat mulai menggunakan Qwen 2.5 Max dan bahkan menyempurnakannya melalui:

Alibaba telah membuka model tersebut. Cukup kunjungi halaman GitHub mereka dan ikuti petunjuk pengaturan.

Jika Anda lebih nyaman dengan Hugging Face, Anda dapat menjelajahi dan menjalankan model tersebut di sana menggunakan alatnya.

Lebih suka pengaturan berbasis cloud? Anda dapat mengakses model melalui Model Studio milik Alibaba Cloud tanpa perlu menyiapkan perangkat keras Anda sendiri.

Setelah Anda menyiapkan dasar-dasarnya, Anda siap untuk mulai bereksperimen dengan Alibaba AI Qwen 2.5 Max—apakah Anda ingin membuat chatbot, menganalisis data, atau menyempurnakannya untuk kasus penggunaan Anda sendiri.

Mempersiapkan Dataset Anda untuk Penyetelan Halus

Sebelum menyempurnakan Qwen 2.5 Max, Anda perlu menyiapkan kumpulan data Anda.

Anggap saja seperti memberi makan model Anda — semakin bersih dan relevan data Anda, semakin baik kinerjanya.

Jenis Data Apa yang Berfungsi Terbaik?

Itu tergantung pada apa yang Anda inginkan dari model tersebut:

  • Untuk chatbot dukungan → Gunakan obrolan nyata atau FAQ.
  • Untuk ringkasan teks → Gunakan teks panjang dengan ringkasannya.
  • Untuk penjelasan kode → Gunakan cuplikan kode dengan penjelasan sederhana.

Singkatnya: Pastikan setiap contoh dengan jelas menunjukkan apa yang Anda ingin model pelajari.

Trik Mudah tentang Cara Memformat, Mengubah Ukuran & Membersihkan

Berikut adalah beberapa tips untuk menjaga data Anda tetap bersih dan berguna:

Format:

Kumpulan data Anda harus dalam format JSON, CSV, atau teks—apa pun yang didukung skrip atau kerangka kerja pelatihan Anda.

Setiap contoh seharusnya terlihat seperti ini:

Ukuran:

  • Mulailah dengan 500 hingga 1000 contoh, itu cukup untuk melihat hasil yang bermanfaat.
  • Lebih banyak contoh = pembelajaran yang lebih baik, tetapi kualitas lebih penting daripada kuantitas.

Tips Membersihkan:

  • Hapus semua kesalahan ejaan, kalimat yang rusak, atau informasi yang tidak relevan.
  • Jaga konsistensi bahasa (hindari pencampuran terlalu banyak gaya).
  • Pangkas respons yang panjang jika tidak memberikan nilai tambah.

Misalnya, katakanlah Anda ingin melatih model untuk menjawab pertanyaan seperti asisten medis:

Terus ulangi struktur semacam ini dengan pertanyaan dan jawaban yang berbeda, dan Anda akan memiliki kumpulan data yang solid untuk penyempurnaan.

Sekarang data Anda sudah siap, mari lanjutkan ke cara menyempurnakan Qwen 2.5 langkah demi langkah!

Cara Menyempurnakan Alibaba AI Qwen 2.5 Max (Langkah demi Langkah)

Rekayasa cepat (memberikan instruksi yang tepat kepada model AI) sangatlah ampuh, dan untuk banyak tugas, cara ini berfungsi dengan baik.


Namun terkadang, hanya perintah saja tidak cukup. 

Di situlah penyempurnaan berperan.

Penyetelan halus berarti mengambil model yang sudah ada seperti Qwen 2.5 Max dan melatihnya lebih lanjut pada data Anda sendiri, sehingga model tersebut berkinerja lebih baik untuk tugas spesifik Anda.

Berikut panduan langkah demi langkah untuk membantu Anda memulai.

Langkah 1: Instal Pustaka yang Diperlukan

Sebelum Anda mulai menyempurnakan model Qwen 2.5 Max, Anda perlu menyiapkan lingkungan Python Anda dengan alat yang tepat. 

Begini caranya:

  • Pastikan Anda telah menginstal Python

Anda memerlukan Python 3.8 atau yang lebih baru. Anda dapat mengunduhnya dari python.org.

  • Buka terminal atau command prompt Anda
  • Instal pustaka yang diperlukan menggunakan pip

Jalankan perintah ini:

Ini memberi Anda alat untuk memuat model, menyiapkan data, dan menjalankan pelatihan.

Langkah 2: Muat Model Qwen 2.5

Anda dapat memuat model dasar dari Hugging Face atau Alibaba Cloud.

Dalam kode, tampilannya akan seperti ini:

Langkah 3: Siapkan dan Tokenisasi Data Anda

Pertama, tentukan apa yang Anda inginkan dari model tersebut:

  • Ringkasan teks
  • Pembuatan teks
  • Klasifikasi biner
  • Tanya jawab, dll.

Lalu buatlah kumpulan data Anda dalam pasangan input-output.

Contoh:

Setelah Anda memiliki data, Anda melakukan tokenisasi (mengubahnya menjadi angka yang dipahami oleh model):

Langkah 4: Pilih Pendekatan Penyetelan Halus Anda

Sekarang tibalah keputusan penting—bagaimana Anda ingin melatih model tersebut?

  • Penyetelan Halus Penuh (Perbarui Semua Parameter)

Ini berarti Anda melatih ulang seluruh model—setiap bobot dan bias.

Memberi Anda kendali penuh tetapi membutuhkan daya komputasi besar dan sangat mahal.

  • Pembelajaran Transfer (Hanya Perbarui Beberapa Lapisan)

Di sini, Anda membekukan sebagian besar lapisan dan hanya melatih beberapa lapisan terakhir.


Ini lebih terjangkau dan berfungsi baik untuk banyak kasus.

  • Penyetelan Halus Efisien Parameter (PEFT)

Ini adalah pilihan yang paling ringan.
Anda tidak mengubah model aslinya sama sekali. 

Sebaliknya, Anda menambahkan beberapa parameter tambahan (seperti adaptor) dan melatihnya saja.

Salah satu metode yang populer di sini adalah LoRA (Low-Rank Adaptation). 

Murah, cepat, dan sangat kuat.

Langkah 5: Tentukan Parameter Pelatihan

Sekarang, atur bagaimana pelatihan harus berjalan:

  • Ukuran batch
  • Kecepatan belajar
  • Jumlah periode pelatihan

Contoh:

Langkah 6: Mulai Pelatihan

Gunakan Trainer Hugging Face atau loop PyTorch mana pun untuk memulai pelatihan.

Anda akan melihat kerugiannya berkurang seiring model belajar.

Langkah 7: Mengevaluasi Kinerja Model

Penting untuk memeriksa seberapa baik kinerja model Anda.
Anda dapat menggunakan metrik dasar seperti akurasi atau metrik khusus berdasarkan tugas Anda.

Ini membantu Anda memantau apakah penyempurnaan Anda benar-benar meningkatkan hasil.

Langkah 8: Simpan dan Uji Model

Setelah pelatihan selesai, simpan model Anda:

Lalu muat kapan saja dan uji dengan contoh nyata!

Anda lihat, penyempurnaan memungkinkan Anda mengajarkan model AI yang canggih seperti Qwen 2.5 Max untuk memahami data Anda, nada bicara Anda, dan tujuan Anda.

Anda tidak perlu menjadi pengembang atau ilmuwan data.


Jika Anda tahu sedikit Python dan bersedia bereksperimen, Anda sudah setengah jalan.

Jika Anda masih memutuskan model mana yang paling sesuai dengan kebutuhan Anda, perbandingan model AI teratas ini menawarkan rincian kinerja yang jelas secara menyeluruh.

Praktik Terbaik Saat Menyempurnakan Model LLM 

Menyempurnakan model bahasa besar (LLM) seperti Qwen 2.5 mungkin terasa rumit, tetapi dengan langkah yang tepat, itu akan menjadi jauh lebih mudah. 

Berikut adalah beberapa praktik terbaik untuk membantu Anda mendapatkan hasil yang lebih baik, menghemat waktu, dan menghindari pemborosan komputasi.

  1. Hindari Overfitting:

Overfitting berarti model Anda mempelajari data pelatihan terlalu baik, tetapi berkinerja buruk pada data baru. 

Untuk menghindari hal ini:

  • Gunakan data validasi (kumpulan terpisah) untuk memeriksa seberapa baik model digeneralisasi.
  • Coba penghentian lebih awal: hentikan pelatihan saat kehilangan validasi tidak lagi membaik.
  • Jaga agar data pelatihan tetap bersih dan beragam, tidak berulang.
  • Gunakan metode Parameter-Efficient Fine-Tuning (PEFT) seperti LoRA atau LoRA+ untuk mengurangi risiko overfitting dengan hanya melatih sebagian kecil model.
  1. Pantau Kerugian dan Kinerja:

Saat berlatih, selalu lacak:

  • Kehilangan pelatihan: seberapa baik model belajar dari data yang dilihatnya.
  • Kehilangan validasi: seberapa baik kinerjanya pada data yang tidak terlihat.
  • Metrik seperti akurasi, skor F1, atau lainnya, berdasarkan tugas Anda.

Tip: Grafik adalah teman Anda!

Memvisualisasikan kerugian dapat membantu Anda mendeteksi masalah lebih awal—misalnya jika kerugian pelatihan menurun tetapi kerugian validasi meningkat (tanda klasik overfitting).

  1. Ketahui Kapan Harus Berhenti Berlatih:

Jangan hanya menjalankan pelatihan selama 20 kali “karena kedengarannya bagus.” 

Alih-alih:

  • Berhenti ketika kehilangan validasi mencapai titik jenuh atau mulai meningkat
  • Gunakan panggilan balik seperti early_stopping di pustaka pelatihan
  • Percayalah pada grafik Anda—jika tidak menunjukkan perbaikan, saatnya berhenti.

Dalam fine-tuning, Anda biasanya akan memilih berapa banyak epoch yang Anda inginkan berdasarkan:

  • Seberapa besar kumpulan data Anda
  • Berapa lama Anda bersedia berlatih?
  • Ketika model mulai memberikan hasil yang baik.
  1. Bereksperimen dengan Berbagai Teknik Fine-Tuning:

Tidak semua metode penyempurnaan bekerja dengan cara yang sama. 

Mencoba:

  • LoRA (Low-Rank Adaptation) – cepat, efisien, dan bagus untuk sumber daya terbatas.
  • LoRA+ – versi yang disempurnakan yang berkinerja lebih baik pada tugas-tugas sulit. Versi ini tersedia di pustaka peft dan tidak memperlambat pelatihan.
  • DoRA – pengujian awal menunjukkan tidak banyak perbaikan, tetapi silakan dicoba.
  • GaLore atau QGaLore – menggunakan memori secara cerdas dan merupakan jalan tengah yang baik antara LoRA dan penyempurnaan penuh.

Jika LoRA atau GaLore memberi hasil yang solid, baru pertimbangkan penyempurnaan penuh (yang membutuhkan banyak sumber daya).

  1. Pilih Modul yang Tepat untuk Disetel:

Saat menggunakan fine-tuning berbasis LoRA:

  • Hindari penyetelan v_proyek Dan lapisan down_proj—mereka tidak mendapat banyak manfaat dari pembaruan peringkat rendah (berdasarkan makalah WeLoRA).
  • Berfokuslah pada lapisan di mana perubahan paling penting—biasanya, lapisan perhatian dan MLP.
  1. Hemat Uang dan Percepat Segalanya:

Penyetelan halus bisa jadi mahal. 

Beberapa alat untuk membuatnya lebih murah dan lebih cepat:

  • Gunakan QLoRA 4-bit pada model ringan seperti Mistral untuk pengujian.
  • Cobalah alat penghemat biaya seperti Liger, FlashAttention (FA), DeepSpeed ZeRO Stage 3, dan Unsloth (melalui kerangka kerja Axolotl).

Opsi ini membantu Anda melatih model dengan lebih cepat, dengan lebih sedikit memori dan uang.

  1. Terus Tingkatkan Kumpulan Data Anda:

Model Anda hanya bagus jika data Anda bagus.

  • Terus perbaiki kumpulan data Anda hingga menjadi jelas, akurat, dan beragam.
  • Hilangkan kebisingan, pengulangan, dan contoh yang tidak relevan.
  • Jika diperlukan, hasilkan data sintetis yang lebih baik menggunakan model yang lebih kuat.
  1. Sesuaikan Hiperparameter Anda:

Hiperparameter (seperti laju pembelajaran, ukuran batch, dsb.) mengontrol cara model Anda belajar.

  • Lakukan pemindaian parameter—coba beberapa kombinasi dan lihat mana yang paling berhasil.
  • Carilah “zona Goldilocks”: tidak terlalu cepat, tidak terlalu lambat—tepat saja.
  1. Belajar Membaca Grafik:

Grafik membantu Anda melihat cerita di balik angka-angka.

  • Gunakan alat seperti TensorBoard atau W&B (Weights & Biases).
  • Waspadalah terhadap penurunan kerugian yang halus dan stabil, bukan lonjakan yang tajam.
  • Lacak metrik dari waktu ke waktu untuk menemukan peningkatan atau masalah.

Untuk menyimpulkan…

Jangan stres memikirkan perbaikan kecil pada 10% jika Anda belum menguasai inti 90%.

Mulailah dengan sederhana. Sesuaikan secara bertahap. Uji coba secara berkala. 

Dan yang terpenting, pahami apa yang dilakukan model Anda dan mengapa.

Kesimpulan: Manfaatkan Alibaba Qwen 2.5 untuk Anda

Menyempurnakan Alibaba AI Qwen 2.5 Max atau model induk apa pun berarti menjadikannya benar-benar milik Anda — dibentuk agar sesuai dengan domain atau tugas spesifik Anda. 

Apakah itu:

  • Menulis ringkasan yang lebih baik
  • Menjawab pertanyaan pelanggan
  • Memahami dokumen hukum.

Anda bisa mendapatkan hasil yang lebih baik hanya dengan memulai dengan model dasar yang tepat dan menggunakan jenis data pelatihan yang tepat.

Tidak sulit, Anda hanya perlu menjelaskan dengan jelas apa yang Anda inginkan dari model tersebut, lalu latih dengan contoh yang sesuai dengan itu. 

Itulah indahnya fine-tuning: performa yang lebih baik tanpa memerlukan model yang besar.

Jadi silakan saja — bereksperimenlah dengan Qwen 2.5, ujilah berbagai hal, dan manfaatkanlah untuk dunia Anda.

Ingin melihat apa lagi yang dibangun China di bidang AI? Berikut 5 startup AI China yang berani dan sembunyi-sembunyi yang diam-diam membuat gelombang.

Ingin mendapatkan wawasan dan tren terkini dalam AI, langsung ke kotak masuk Anda? 

Berlangganan ke Buletin AI Business Asia hari ini dan tetap menjadi yang terdepan.

Diposting oleh Alexis Lee
POSTING SEBELUMNYA
Anda Mungkin Juga Menyukai

Tinggalkan Komentar Anda:

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *