
Các mô hình AI là những công cụ mạnh mẽ, nhưng nếu bạn có thể biến một trong số chúng thành chuyên gia thực thụ trong lĩnh vực của mình thì sao?
Đó chính là lúc sự điều chỉnh chính xác phát huy tác dụng.
Bằng cách tinh chỉnh, bạn có thể lấy một mô hình AI chung và đào tạo thêm để chuyên biệt hóa vào trường hợp sử dụng riêng của bạn, cho dù đó là:
- Chăm sóc sức khỏe
- Tài chính
- Giáo dục, hay là một thứ gì đó hoàn toàn khác.
Một trong những mô hình đáng khám phá là Qwen 2.5 của Alibaba - một mô hình ngôn ngữ lớn mạnh mẽ và linh hoạt được thiết kế cho nhiều tác vụ khác nhau.
Để tìm hiểu sâu hơn về mọi thứ Qwen cung cấp và lý do tại sao nó quan trọng, sự cố này của LLM của Alibaba là nơi tốt để bắt đầu.
Trong blog này, bạn sẽ học được:
- Điều chỉnh chính xác là gì?
- Cách tinh chỉnh Qwen 2.5 (cách không chuyên môn)
- Các phương pháp hay nhất để tinh chỉnh Qwen 2.5 (bạn cũng có thể áp dụng cho các LLM khác)
Hướng dẫn đơn giản này sẽ hướng dẫn bạn thực hiện toàn bộ quá trình tinh chỉnh, giúp người mới bắt đầu có thể thực hiện dễ dàng và đơn giản.
Điều chỉnh chính xác là gì và tại sao bạn cần biết về nó?
Tinh chỉnh là quá trình lấy một mô hình được đào tạo trước và đào tạo ít nhất một trong các tham số nội bộ của nó, như trọng số hoặc độ lệch bên trong mạng nơ-ron, để làm cho nó phù hợp hơn với nhu cầu cụ thể của bạn.
Nói theo cách này: Nếu Qwen là một viên kim cương mới lấy ra từ mỏ than, thì tinh chỉnh là quá trình cắt và đánh bóng viên kim cương đó thành một vật dụng có chức năng, như một chiếc nhẫn kim cương.
Nó lấy một thứ gì đó mạnh mẽ ở dạng thô sơ và làm cho nó trở nên:
- Thực tế
- Có mục đích
- Phù hợp với trường hợp sử dụng cụ thể.
Đây chính xác là những gì xảy ra khi một mô hình cơ bản như Qwen được cải tiến thành Qwen 2.5 Max.
Kết quả thế nào?
Một mô hình chính xác hơn, hiệu quả hơn và phù hợp hơn với các ứng dụng thực tế.
Tại sao việc tinh chỉnh lại quan trọng?
Sau đây là hiểu biết sâu sắc: Một mô hình nhỏ hơn, được tinh chỉnh thường có thể hoạt động tốt hơn một mô hình chung lớn hơn.
Điều này lần đầu tiên được OpenAI chứng minh qua mô hình InstructGPT của họ và cho đến ngày nay vẫn đúng.
Đây là một trong những lợi thế lớn nhất của việc tinh chỉnh.
Bạn không phải lúc nào cũng cần bằng LLM đa năng để có hiệu suất cao cho một nhiệm vụ cụ thể.
Bạn có thể:
- Lấy một mô hình nguồn mở
- Tinh chỉnh nó từ máy tính xách tay của bạn,
Và phần tuyệt vời nhất là gì?
Bạn không cần phải là nhà phát triển hoặc nhà khoa học dữ liệu.
Chỉ cần bạn có chút hiểu biết về công nghệ là được.
Tại sao việc tinh chỉnh lại khiến LLM thực sự hữu ích
Bạn có thể đã nhận thấy điều này sau khi tìm hiểu về LLM: Chúng rất phù hợp để giải quyết các câu hỏi chung, nhưng không sắc bén khi giải quyết các nhiệm vụ cụ thể theo lĩnh vực.
Đó chính là lúc mà sự tinh chỉnh thực sự phát huy tác dụng.
Điều này đặc biệt đúng khi bạn nhìn vào cách Các công ty khởi nghiệp AI và các gã khổng lồ công nghệ của Trung Quốc đang tận dụng sự tinh chỉnh để tạo ra những mô hình có thể sánh ngang với những mô hình tốt nhất ở phương Tây.
Giả sử bạn muốn một mô hình hoạt động giống như một người điều chỉnh yêu cầu bồi thường bảo hiểm.
Bạn có thể nhắc lại điều này trong lời nhắc trả lời với giọng điệu chuyên nghiệp và hiểu biết về chính sách bảo hiểm…
Hoặc
Bạn có thể tinh chỉnh nó dựa trên các ví dụ về cách một người giám định khiếu nại nói chuyện và làm việc.
Theo cách đó, mô hình đã “biết“cách hành động—không cần hướng dẫn liên tục.
Đó chính xác là những gì bạn nhận được khi tinh chỉnh
- Phản hồi tốt hơn, sắc nét hơn với lời nhắc ngắn hơn
- Thời gian phản hồi nhanh hơn (độ trễ suy luận thấp hơn)
- Chi phí tính toán thấp hơn
- Một mô hình hiểu lĩnh vực của bạn như một chuyên gia
Các loại tinh chỉnh
Có 3 cách phổ biến để tinh chỉnh một mô hình:
- Học tập tự giám sát:
Mô hình học từ dữ liệu chưa được gắn nhãn bằng cách dự đoán các phần của văn bản (ví dụ: các từ bị thiếu).
- Học có giám sát:
Bạn cung cấp cho mô hình các cặp đầu vào-đầu ra (câu hỏi + câu trả lời đúng).
- Học tăng cường:
Mô hình học bằng cách nhận phản hồi (như ngón tay cái hướng lên/hướng xuống) và điều chỉnh hành vi cho phù hợp.
Qwen 2.5 là gì và tại sao nên sử dụng nó?
Qwen 2.5 là mô hình ngôn ngữ lớn (LLM) do Alibaba phát triển.
Đây là một phần của họ Qwen, bao gồm nhiều mô hình có kích thước khác nhau như 0,5B, 7B và thậm chí là 72B (chữ “B” tượng trưng cho hàng tỷ tham số).
Có hai loại mô hình Qwen:
- Các mô hình cơ sở:
Đây là những mô hình thô được đào tạo trước.
Họ đã học được các mẫu ngôn ngữ chung từ rất nhiều dữ liệu, nhưng chưa được tinh chỉnh cho các nhiệm vụ cụ thể.
Ví dụ: Câu 2.5-7B.
- Các mô hình được điều chỉnh theo hướng dẫn:
Các mô hình này được tinh chỉnh để thực hiện theo hướng dẫn hoặc phản hồi như một chatbot.
Họ được đào tạo để thực hiện những nhiệm vụ cụ thể như:
- Trả lời câu hỏi
- Tóm tắt văn bản
- Đang trò chuyện.
Ví dụ: Qwen2.5-7B-Hướng dẫn.
Và nếu bạn đang tự hỏi cách tiếp cận của Alibaba so sánh như thế nào trên toàn cầu, cuộc đối đầu này giữa OpenAI và Alibaba LLM cung cấp bối cảnh hữu ích.
Khi bạn nhắc đến Qwen 2.5 Max, có thể bạn đang nói đến phiên bản lớn hơn hoặc mạnh hơn của dòng Qwen 2.5.
Có thể là mô hình cơ bản hoặc mô hình được điều chỉnh theo hướng dẫn, tùy thuộc vào phiên bản bạn đang sử dụng.
Nếu bạn muốn tinh chỉnh Qwen cho nhiệm vụ của riêng mình (như tóm tắt email hoặc phân loại phiếu hỗ trợ khách hàng), bạn thường sẽ muốn bắt đầu với một mô hình cơ sở và đào tạo nó thêm bằng dữ liệu của riêng bạn.
Nhưng nếu bạn đang xây dựng một chatbot hoặc thứ gì đó tương tác hơn, việc bắt đầu từ một mô hình được điều chỉnh theo hướng dẫn có thể giúp công việc của bạn dễ dàng hơn.
Tại sao bạn nên sử dụng nó?
Bên cạnh tất cả các tính năng thú vị nêu trên, chúng tôi cũng tìm hiểu ý kiến của người dùng thực tế.
Còn các đánh giá thì sao?
Khá chắc chắn:
- “Qwen 2.5 là một bước ngoặt lớn.”
- “Qwen Max giỏi lắm.”
- “Nó đang bị ngủ.”
- “Nó dễ sử dụng và miễn phí—tôi sử dụng nó thường xuyên.”
Vì vậy, nếu bạn là nhà phát triển, nhà nghiên cứu hoặc người sáng lập công ty khởi nghiệp đang tìm kiếm một mô hình AI thông minh, nhanh chóng và linh hoạt thì Alibaba Qwen 2.5 Max rất đáng để thử.
Những tình cảm đó phản ánh những gì chúng ta đã thấy trong cộng đồng.
Trong thực tế, những mẹo nội bộ này về cách sử dụng Qwen 2.5 Max cho thấy nó linh hoạt và thân thiện với nhà phát triển như thế nào.
Bắt đầu với Alibaba Qwen 2.5 Max
Bạn có háo hức muốn dùng thử Alibaba Qwen 2.5 Max không?
Tuyệt vời! Dễ dàng truy cập và thiết lập, ngay cả khi bạn mới bắt đầu.
Nơi để truy cập Qwen 2.5 Max
Bạn có thể bắt đầu sử dụng Qwen 2.5 Max và thậm chí tinh chỉnh nó thông qua:
Alibaba đã mã nguồn mở mô hình này. Chỉ cần truy cập trang GitHub của họ và làm theo hướng dẫn thiết lập.
Nếu bạn cảm thấy thoải mái hơn với Hugging Face, bạn có thể khám phá và chạy mô hình ngay tại đó bằng các công cụ của họ.
Bạn thích thiết lập dựa trên đám mây? Bạn có thể truy cập mô hình thông qua Model Studio của Alibaba Cloud mà không cần phải thiết lập phần cứng của riêng mình.
Sau khi đã chuẩn bị những điều cơ bản, bạn đã sẵn sàng bắt đầu thử nghiệm với Alibaba AI Qwen 2.5 Max—cho dù bạn muốn xây dựng một chatbot, phân tích dữ liệu hay tinh chỉnh nó cho mục đích sử dụng của riêng bạn.
Chuẩn bị bộ dữ liệu của bạn để tinh chỉnh
Trước khi tinh chỉnh Qwen 2.5 Max, bạn cần chuẩn bị tập dữ liệu của mình.
Hãy nghĩ về nó giống như việc cung cấp dữ liệu cho mô hình của bạn — dữ liệu càng sạch và phù hợp thì hiệu suất càng cao.
Loại dữ liệu nào hiệu quả nhất?
Điều này phụ thuộc vào mục đích bạn muốn mô hình thực hiện:
- Đối với chatbot hỗ trợ → Sử dụng tính năng trò chuyện thực tế hoặc Câu hỏi thường gặp.
- Đối với tóm tắt văn bản → Sử dụng văn bản dài cùng với phần tóm tắt.
- Để giải thích mã → Sử dụng đoạn mã có giải thích đơn giản.
Tóm lại: Chỉ cần đảm bảo rằng mỗi ví dụ đều thể hiện rõ ràng những gì bạn muốn mô hình học.
Mẹo dễ dàng về cách định dạng, kích thước và làm sạch
Sau đây là một số mẹo giúp bạn giữ dữ liệu sạch và hữu ích:
Định dạng:
Bộ dữ liệu của bạn phải ở định dạng JSON, CSV hoặc văn bản—bất kể tập lệnh hoặc khuôn khổ đào tạo của bạn hỗ trợ định dạng nào.
Mỗi ví dụ sẽ trông như thế này:
Kích cỡ:
- Bắt đầu với 500 đến 1000 ví dụ, đủ để thấy được kết quả hữu ích.
- Nhiều ví dụ = học tốt hơn, nhưng chất lượng quan trọng hơn số lượng.
Mẹo vệ sinh:
- Xóa mọi lỗi chính tả, câu hỏng hoặc thông tin không liên quan.
- Duy trì sự nhất quán của ngôn ngữ (tránh pha trộn quá nhiều phong cách).
- Cắt bớt những phản hồi dài nếu chúng không mang lại giá trị.
Ví dụ, giả sử bạn muốn đào tạo mô hình để trả lời các câu hỏi như trợ lý y tế:
Tiếp tục lặp lại cấu trúc này với nhiều câu hỏi và câu trả lời khác nhau và bạn sẽ có một tập dữ liệu vững chắc để tinh chỉnh.
Bây giờ dữ liệu của bạn đã sẵn sàng, chúng ta hãy chuyển sang cách tinh chỉnh Qwen 2.5 từng bước!
Cách tinh chỉnh Alibaba AI Qwen 2.5 Max (Từng bước)
Kỹ thuật nhanh chóng (đưa ra hướng dẫn phù hợp cho mô hình AI) rất hiệu quả và có hiệu quả đối với nhiều nhiệm vụ.
Nhưng đôi khi, chỉ nhắc nhở thôi là không đủ.
Đó chính là lúc sự điều chỉnh chính xác phát huy tác dụng.
Tinh chỉnh có nghĩa là sử dụng một mô hình hiện có như Qwen 2.5 Max và đào tạo thêm trên dữ liệu của riêng bạn để mô hình hoạt động tốt hơn cho tác vụ cụ thể của bạn.
Sau đây là hướng dẫn từng bước để giúp bạn bắt đầu.
Bước 1: Cài đặt các thư viện cần thiết
Trước khi bắt đầu tinh chỉnh mô hình Qwen 2.5 Max, bạn cần thiết lập môi trường Python bằng các công cụ phù hợp.
Sau đây là cách thực hiện:
- Hãy chắc chắn rằng bạn đã cài đặt Python
Bạn sẽ cần Python 3.8 trở lên. Bạn có thể tải xuống từ python.org.
- Mở terminal hoặc dấu nhắc lệnh của bạn
- Cài đặt các thư viện cần thiết bằng pip
Chạy lệnh này:
Điều này cung cấp cho bạn các công cụ để tải mô hình, chuẩn bị dữ liệu và chạy đào tạo.
Bước 2: Tải mô hình Qwen 2.5
Bạn có thể tải mô hình cơ sở từ Hugging Face hoặc Alibaba Cloud.
Mã sẽ trông giống thế này:
Bước 3: Chuẩn bị và mã hóa dữ liệu của bạn
Đầu tiên, hãy quyết định xem bạn muốn mô hình thực hiện điều gì:
- Tóm tắt văn bản
- Tạo văn bản
- Phân loại nhị phân
- Hỏi & Đáp, v.v.
Sau đó, tạo tập dữ liệu của bạn theo cặp đầu vào-đầu ra.
Ví dụ:
Khi đã có dữ liệu, bạn hãy mã hóa dữ liệu (biến dữ liệu thành những con số mà mô hình có thể hiểu được):
Bước 4: Chọn phương pháp tinh chỉnh của bạn
Bây giờ cần đưa ra quyết định quan trọng: bạn muốn đào tạo mô hình như thế nào?
- Tinh chỉnh đầy đủ (Cập nhật tất cả các tham số)
Điều này có nghĩa là bạn phải đào tạo lại toàn bộ mô hình—mọi trọng số và độ lệch.
Nó cho phép bạn kiểm soát hoàn toàn nhưng đòi hỏi sức mạnh tính toán lớn và rất tốn kém.
- Chuyển giao học tập (Chỉ cập nhật một số lớp)
Ở đây, bạn đóng băng hầu hết các lớp và chỉ luyện tập một vài lớp cuối cùng.
Nó có giá cả phải chăng hơn và phù hợp với nhiều trường hợp.
- Điều chỉnh hiệu quả tham số (PEFT)
Đây là lựa chọn nhẹ nhất.
Bạn không hề thay đổi mô hình ban đầu.
Thay vào đó, bạn thêm một vài tham số bổ sung (như bộ điều hợp) và chỉ đào tạo những tham số đó.
Một phương pháp phổ biến ở đây là LoRA (Thích ứng bậc thấp).
Nó rẻ, nhanh và mạnh mẽ một cách đáng ngạc nhiên.
Bước 5: Xác định các tham số đào tạo
Bây giờ, hãy thiết lập cách thức đào tạo sẽ diễn ra:
- Kích thước lô
- Tỷ lệ học tập
- Số lượng kỷ nguyên đào tạo
Ví dụ:
Bước 6: Bắt đầu đào tạo
Sử dụng Hugging Face's Trainer hoặc bất kỳ vòng lặp PyTorch nào để bắt đầu huấn luyện.
Bạn sẽ thấy mức tổn thất giảm xuống khi mô hình học được.
Bước 7: Đánh giá hiệu suất mô hình
Điều quan trọng là phải kiểm tra xem mô hình của bạn hoạt động tốt như thế nào.
Bạn có thể sử dụng các số liệu cơ bản như độ chính xác hoặc số liệu tùy chỉnh dựa trên nhiệm vụ của mình.
Điều này giúp bạn theo dõi liệu việc tinh chỉnh của bạn có thực sự cải thiện kết quả hay không.
Bước 8: Lưu và Kiểm tra Mô hình
Sau khi đào tạo xong, hãy lưu mô hình của bạn:
Sau đó, hãy tải nó bất cứ lúc nào và kiểm tra bằng các ví dụ thực tế!
Bạn thấy đấy, việc tinh chỉnh cho phép bạn dạy một mô hình AI mạnh mẽ như Qwen 2.5 Max hiểu dữ liệu, giọng điệu và mục tiêu của bạn.
Bạn không cần phải là nhà phát triển hoặc nhà khoa học dữ liệu.
Nếu bạn biết một chút về Python và sẵn sàng thử nghiệm thì bạn đã đi được nửa chặng đường rồi.
Nếu bạn vẫn đang quyết định xem mẫu nào phù hợp nhất với nhu cầu của mình, sự so sánh này của các mô hình AI hàng đầu cung cấp sự phân tích rõ ràng về hiệu suất trên toàn diện.
Các phương pháp hay nhất khi tinh chỉnh các mô hình LLM
Việc tinh chỉnh các mô hình ngôn ngữ lớn (LLM) như Qwen 2.5 có vẻ phức tạp, nhưng với các bước phù hợp, việc này sẽ trở nên dễ dàng hơn nhiều.
Sau đây là một số biện pháp tốt nhất giúp bạn đạt được kết quả tốt hơn, tiết kiệm thời gian và tránh lãng phí điện toán.
- Tránh lắp quá mức:
Quá khớp có nghĩa là mô hình của bạn học dữ liệu đào tạo quá tốt nhưng lại hoạt động kém trên dữ liệu mới.
Để tránh điều này:
- Sử dụng dữ liệu xác thực (một bộ riêng biệt) để kiểm tra mức độ tổng quát của mô hình.
- Hãy thử dừng sớm: dừng đào tạo khi tình trạng mất xác nhận không còn được cải thiện.
- Giữ dữ liệu đào tạo sạch sẽ và đa dạng, không trùng lặp.
- Sử dụng các phương pháp Điều chỉnh hiệu quả tham số (PEFT) như LoRA hoặc LoRA+ để giảm rủi ro quá khớp bằng cách chỉ đào tạo một phần nhỏ của mô hình.
- Theo dõi tổn thất và hiệu suất:
Trong khi đào tạo, hãy luôn theo dõi:
- Mất mát trong quá trình đào tạo: mức độ học hỏi của mô hình từ dữ liệu mà nó nhìn thấy.
- Mất mát xác thực: hiệu suất thực hiện trên dữ liệu chưa biết.
- Các số liệu như độ chính xác, điểm F1 hoặc các số liệu khác dựa trên nhiệm vụ của bạn.
Mẹo: Biểu đồ chính là bạn của bạn!
Việc hình dung ra sự mất mát có thể giúp bạn phát hiện ra vấn đề sớm—ví dụ như nếu sự mất mát trong quá trình đào tạo của bạn giảm xuống nhưng sự mất mát xác thực lại tăng lên (một dấu hiệu điển hình của việc quá khớp).
- Biết khi nào nên dừng tập luyện:
Đừng chỉ chạy chương trình đào tạo trong 20 kỷ nguyên “vì nó nghe có vẻ hay”.
Thay vì:
- Dừng lại khi mất mát xác thực đạt đến mức ổn định hoặc bắt đầu tăng
- Sử dụng các lệnh gọi lại như early_stopping trong thư viện đào tạo
- Hãy tin vào biểu đồ của bạn - nếu chúng không cho thấy sự cải thiện, đã đến lúc dừng lại.
Khi tinh chỉnh, bạn thường sẽ chọn số kỷ nguyên bạn muốn dựa trên:
- Bộ dữ liệu của bạn lớn đến mức nào
- Bạn sẵn sàng đào tạo trong bao lâu
- Khi mô hình bắt đầu cho kết quả tốt.
- Thử nghiệm với các kỹ thuật tinh chỉnh khác nhau:
Không phải tất cả các phương pháp tinh chỉnh đều có hiệu quả giống nhau.
Thử:
- LoRA (Thích ứng bậc thấp) – nhanh, hiệu quả và phù hợp với nguồn lực hạn chế.
- LoRA+ – phiên bản cải tiến thực hiện tốt hơn các nhiệm vụ khó. Có sẵn trong thư viện peft và không làm chậm quá trình đào tạo.
- DoRA – các thử nghiệm ban đầu cho thấy nó không cải thiện nhiều, nhưng bạn vẫn có thể thử.
- GaLore hoặc QGaLore – sử dụng bộ nhớ một cách thông minh và là giải pháp trung gian tốt giữa LoRA và tinh chỉnh hoàn toàn.
Nếu LoRA hoặc GaLore mang lại cho bạn kết quả chắc chắn, hãy cân nhắc đến việc điều chỉnh hoàn toàn (tốn nhiều tài nguyên).
- Chọn đúng mô-đun để điều chỉnh:
Khi sử dụng tinh chỉnh dựa trên LoRA:
- Tránh điều chỉnh v_proj Và down_proj lớp—họ không được hưởng lợi nhiều từ các bản cập nhật cấp thấp (dựa trên bài báo WeLoRA).
- Tập trung vào các lớp có sự thay đổi quan trọng nhất—thường là các lớp chú ý và MLP.
- Tiết kiệm tiền và tăng tốc mọi việc:
Việc tinh chỉnh có thể tốn kém.
Một số công cụ giúp làm cho nó rẻ hơn và nhanh hơn:
- Sử dụng QLoRA 4 bit trên các mô hình nhẹ như Mistral để thử nghiệm.
- Hãy thử các công cụ tiết kiệm chi phí như Liger, FlashAttention (FA), DeepSpeed ZeRO Stage 3 và Unsloth (thông qua nền tảng Axolotl).
Các tùy chọn này giúp bạn đào tạo mô hình nhanh hơn, tốn ít bộ nhớ và tiền bạc hơn.
- Tiếp tục cải thiện tập dữ liệu của bạn:
Mô hình của bạn chỉ tốt khi dữ liệu của bạn tốt.
- Tiếp tục tinh chỉnh tập dữ liệu của bạn cho đến khi nó rõ ràng, chính xác và đa dạng.
- Loại bỏ tiếng ồn, sự lặp lại và các ví dụ không liên quan.
- Nếu cần, hãy tạo dữ liệu tổng hợp tốt hơn bằng cách sử dụng mô hình mạnh hơn.
- Điều chỉnh siêu tham số của bạn:
Các siêu tham số (như tốc độ học, quy mô lô, v.v.) kiểm soát cách mô hình của bạn học.
- Thực hiện quét tham số—thử một vài kết hợp và xem kết hợp nào hiệu quả nhất.
- Hãy tìm “vùng Goldilocks”: không quá nhanh, không quá chậm—vừa phải.
- Học cách đọc biểu đồ:
Biểu đồ giúp bạn thấy được câu chuyện đằng sau những con số.
- Sử dụng các công cụ như TensorBoard hoặc W&B (Weights & Biases).
- Hãy chú ý đến sự giảm đều đặn, êm ả chứ không phải sự tăng đột biến.
- Theo dõi số liệu theo thời gian để phát hiện những cải tiến hoặc vấn đề.
Để kết luận…
Đừng căng thẳng về những cải tiến nhỏ của 10% khi bạn vẫn chưa hoàn thiện được phần cốt lõi 90%.
Bắt đầu đơn giản. Điều chỉnh dần dần. Kiểm tra thường xuyên.
Và quan trọng nhất là phải hiểu mô hình của bạn đang làm gì và tại sao.
Kết luận: Hãy để Alibaba Qwen 2.5 phát huy tác dụng với bạn
Việc tinh chỉnh Alibaba AI Qwen 2.5 Max hoặc bất kỳ mô hình mẹ nào có nghĩa là biến nó thực sự thành của riêng bạn — được định hình để phù hợp với lĩnh vực hoặc nhiệm vụ cụ thể của bạn.
Cho dù đó là:
- Viết tóm tắt tốt hơn
- Trả lời các câu hỏi của khách hàng
- Hiểu biết về các văn bản pháp lý.
Bạn có thể đạt được kết quả tốt hơn chỉ bằng cách bắt đầu với mô hình cơ sở phù hợp và sử dụng đúng loại dữ liệu đào tạo.
Việc này không khó, chỉ cần xác định rõ bạn muốn mô hình thực hiện điều gì và huấn luyện nó bằng các ví dụ phù hợp với mục đích đó.
Đó chính là vẻ đẹp của việc tinh chỉnh: hiệu suất tốt hơn mà không cần đến một mô hình khổng lồ.
Vậy hãy thử nghiệm với Qwen 2.5, kiểm tra mọi thứ và áp dụng vào thế giới của bạn.
Bạn có muốn biết Trung Quốc đang xây dựng những gì trong lĩnh vực AI không? Dưới đây là 5 công ty khởi nghiệp AI táo bạo và bí ẩn của Trung Quốc đang âm thầm tạo nên làn sóng mới.
Bạn có muốn nhận những thông tin chuyên sâu và xu hướng mới nhất về AI ngay trong hộp thư đến của mình không?
Đăng ký để Bản tin của AI Business Asia hôm nay và luôn đi đầu.
Đăng ký để nhận thông tin cập nhật bài viết mới nhất trên blog
Để lại bình luận của bạn: