Cuối tuần qua, Omar Sanseviero – kỹ sư phụ trách cộng đồng nhà phát triển tại Google DeepMind – chia sẻ trên nền tảng X rằng các mô hình AI Gemma của Google đã vượt qua 150 triệu lượt tải. Không chỉ vậy, cộng đồng lập trình viên cũng đã tạo ra hơn 70.000 biến thể của Gemma trên nền tảng Hugging Face – một trung tâm phát triển AI mã nguồn mở nổi tiếng.
Gemma được Google giới thiệu từ tháng 2 năm 2024 với mục tiêu cạnh tranh với các dòng mô hình “mở” khác như Llama của Meta. Phiên bản mới nhất của Gemma là mô hình đa phương thức, có khả năng xử lý cả hình ảnh lẫn văn bản và hỗ trợ hơn 100 ngôn ngữ. Google cũng phát triển các phiên bản Gemma chuyên biệt cho từng lĩnh vực, điển hình như phát hiện thuốc mới trong y học.
Dù đạt được 150 triệu lượt tải chỉ sau khoảng một năm, con số này vẫn còn khá khiêm tốn so với đối thủ chính – Llama của Meta – đã cán mốc hơn 1,2 tỷ lượt tải vào cuối tháng 4 vừa qua. Điều đó cho thấy Google vẫn còn chặng đường dài nếu muốn vươn lên dẫn đầu trong lĩnh vực mô hình mã nguồn mở.
Tuy nhiên, cả Gemma và Llama đều đang đối mặt với một vấn đề gây tranh cãi: điều khoản cấp phép không tiêu chuẩn. Một số nhà phát triển lo ngại rằng giấy phép hiện tại có thể khiến việc ứng dụng thương mại trở nên rủi ro, làm hạn chế khả năng triển khai thực tế của các mô hình này trong doanh nghiệp.
Mặc dù vậy, việc Gemma đạt được dấu mốc 150 triệu lượt tải và thu hút hàng chục nghìn biến thể phát triển vẫn là minh chứng rõ ràng cho tiềm năng của mô hình này trong cộng đồng AI toàn cầu.
Bạn có muốn mình viết thêm bài so sánh giữa Gemma và Llama về hiệu suất, khả năng ứng dụng thực tế và cộng đồng phát triển không?