Meta Llama: Tất cả những gì bạn cần biết về mô hình AI mở generative

Giống như mọi công ty công nghệ lớn ngày nay, Meta có mô hình AI generative cờ đáng chú ý của riêng mình, gọi là Llama. Llama khá độc đáo so với các mô hình lớn khác vì nó là mô hình 'mở', có nghĩa là các nhà phát triển có thể tải xuống và sử dụng nó theo ý muốn của họ (với một số hạn chế). Điều đó khác biệt với các mô hình như Claude của Anthropic, GPT-4o của OpenAI (mà cung cấp năng lực cho ChatGPT) và Gemini của Google, chỉ có thể được truy cập thông qua API.

Với mục đích mang lại sự lựa chọn cho nhà phát triển, Meta cũng đã hợp tác với các nhà cung cấp bao gồm AWS, Google Cloud và Microsoft Azure để cung cấp phiên bản được lưu trữ trên đám mây của Llama. Ngoài ra, công ty cũng đã phát hành các công cụ được thiết kế để làm cho việc điều chỉnh và tùy chỉnh mô hình dễ dàng hơn.

Llama là gì?

Llama là một dòng mô hình - không chỉ là một:

  • Llama 8B
  • Llama 70B
  • Llama 405B

Các phiên bản mới nhất là Llama 3.1 8B, Llama 3.1 70B và Llama 3.1 405B, được phát hành vào tháng 7 năm 2024. Chúng được huấn luyện trên các trang web bằng nhiều ngôn ngữ, mã nguồn công cộng và tệp trên web, cũng như dữ liệu tổng hợp (tức là dữ liệu được tạo ra bởi các mô hình AI khác).

Llama 3.1 8B và Llama 3.1 70B là các mô hình nhỏ gọn, được thiết kế để chạy trên các thiết bị từ laptop đến máy chủ. Ngược lại, Llama 3.1 405B là một mô hình tỷ lệ lớn đòi hỏi phần cứng trung tâm dữ liệu (trừ khi có một số sửa đổi). Llama 3.1 8B và Llama 3.1 70B ít có khả năng hơn so với Llama 3.1 405B, nhưng nhanh chóng hơn. Thực tế, chúng là các phiên bản 'ngấu nhiên' của 405B, được tối ưu hóa cho tiêu chuẩn lưu trữ thấp và độ trễ.

Tất cả các mô hình Llama đều có cửa sổ bối cảnh 128.000 mã thông báo. (Trong khoa học dữ liệu, các mã thông báo là các phần nhỏ của dữ liệu nguyên thô, như những âm tiết 'fan', 'tas' và 'tic' trong từ 'fantastic.') Bối cảnh của một mô hình, hoặc cửa sổ bối cảnh, đề cập đến dữ liệu nhập (ví dụ: văn bản) mà mô hình xem xét trước khi tạo ra đầu ra (ví dụ: văn bản bổ sung). Bối cảnh dài có thể ngăn mô hình 'quên' nội dung của tài liệu và dữ liệu gần đây, và tránh việc chệch lệch khỏi chủ đề và suy luận sai.

128.000 mã thông báo này tương đương với khoảng 100.000 từ hoặc 300 trang sách, cho tham khảo, khoảng chiều dài của 'Wuthering Heights,' 'Gulliver's Travels' và 'Harry Potter and the Prisoner of Azkaban.'

Llama có thể làm gì?

Tương tự như các mô hình AI generative khác, Llama có thể thực hiện một loạt các công việc hỗ trợ khác nhau, như lập trình và trả lời câu hỏi toán cơ bản, cũng như tóm tắt tài liệu bằng tám ngôn ngữ (Tiếng Anh, Tiếng Đức, Tiếng Pháp, Tiếng Ý, Tiếng Bồ Đào Nha, Tiếng Hin-ddi, Tiếng Tây Ban Nha và Tiếng Thái). Hầu hết các công việc dựa trên văn bản - nghĩ về việc phân tích các tệp như PDF và bảng tính - đều nằm trong phạm vi của nó; không một trong số các mô hình Llama có thể xử lý hoặc tạo ra hình ảnh, tuy nhiên điều này có thể thay đổi trong tương lai gần.

Tất cả các mô hình Llama mới nhất có thể được cấu hình để tận dụng ứng dụng, công cụ và API của bên thứ ba để hoàn thành các công việc. Chúng được huấn luyện sẵn để sử dụng Brave Search để trả lời câu hỏi về các sự kiện gần đây, API Wolfram Alpha cho các truy vấn liên quan đến toán học và khoa học và trình thông dịch Python để xác minh mã. Ngoài ra, Meta nói rằng các mô hình Llama 3.1 có thể sử dụng một số công cụ mà họ chưa từng thấy trước đó (nhưng việc họ có thể sử dụng các công cụ này một cách đáng tin cậy hay không là một vấn đề khác).

Tôi có thể sử dụng Llama ở đâu?

Nếu bạn chỉ muốn trò chuyện với Llama, nó đang cung cấp trải nghiệm chatbot AI của Meta trên Facebook Messenger, WhatsApp, Instagram, Oculus và Meta.ai.

Nhà phát triển xây dựng với Llama có thể tải xuống, sử dụng hoặc điều chỉnh mô hình trên hầu hết các nền tảng đám mây phổ biến. Meta cho biết họ có hơn 25 đối tác lưu trữ Llama, bao gồm Nvidia, Databricks, Groq, Dell và Snowflake.

Một số đối tác này đã xây dựng các công cụ và dịch vụ bổ sung trên Llama, bao gồm các công cụ cho phép mô hình tham chiếu đến dữ liệu độc quyền và cho phép chúng chạy ở độ trễ thấp hơn.

Meta khuyến nghị sử dụng các mô hình nhỏ của họ, Llama 8B và Llama 70B, cho các ứng dụng tổng quát như hoạt động chatbot và tạo mã. Llama 405B, công ty nói, nên được dành cho sự ngộ nghĩnh mô hình - quá trình chuyển giao kiến thức từ một mô hình lớn sang một mô hình nhỏ, hiệu quả hơn - và tạo dữ liệu tổng hợp để huấn luyện (hoặc điều chỉnh) các mô hình thay thế.

Quan trọng, giấy phép Llama ràng buộc cách nhà phát triển có thể triển khai mô hình: Nhà phát triển ứng dụng với hơn 700 triệu người dùng hàng tháng phải yêu cầu một giấy phép đặc biệt từ Meta mà công ty sẽ cấp theo quyền tự do của mình.

Công cụ nào Meta cung cấp cho Llama?

Bên cạnh Llama, Meta cung cấp các công cụ được thiết kế để làm cho mô hình 'an toàn' hơn:

  • Llama Guard, một khung moderation
  • Prompt Guard, một công cụ để bảo vệ chống lại các cuộc tấn công tiêm nhập lời hỏi
  • CyberSecEval, bộ công cụ đánh giá rủi ro an ninh mạng

Llama Guard cố gắng phát hiện nội dung có thể gây vấn đề xâm nhập vào - hoặc được tạo ra - bởi một mô hình Llama, bao gồm nội dung liên quan đến hoạt động tội phạm, lạm dụ trẻ em, vi phạm bản quyền, kỳ thị, tự tử và lạm dụ tình dục. Nhà phát triển có thể tùy chỉnh các loại nội dung bị chặn, và áp dụng các khối cho tất cả các ngôn ngữ mà Llama hỗ trợ mặc định.

Tương tự như Llama Guard, Prompt Guard có thể chặn văn bản dành cho Llama, nhưng chỉ văn bản ý định 'tấn công' vào mô hình và khiến cho nó hoạt động một cách không mong muốn. Meta khẳng định rằng Llama Guard có thể phòng thủ chống lại các lời hỏi có hại một cách rõ ràng (tức là các cuộc phiên ác ý cố gắng tránh qua bộ lọc an toàn tích hợp của Llama) cũng như lời hỏi chứa 'các input được tiêm nhập.'

Về CyberSecEval, đó không phải là một công cụ mà là một tập hợp các tiêu chí để đo lường an toàn của mô hình. CyberSecEval có thể đánh giá rủi ro mà một mô hình Llama gây ra (ít nhất theo tiêu chí của Meta) đối với nhà phát triển ứng dụng và người dùng cuối trong các lĩnh vực như 'kỹ nghệ xã hội tự động' và 'mở rộng các hoạt động cyber phản công.'

Giới hạn của Llama

Llama đi kèm với một số rủi ro và giới hạn, giống như tất cả các mô hình AI generative.

Ví dụ, không rõ liệu Meta đã huấn luyện Llama trên những nội dung có bản quyền hay không. Nếu họ đã làm như vậy, người dùng có thể chịu trách nhiệm về vi phạm nếu họ sử dụng một đoạn được bảo đảm bản quyền mà mô hình tái hiện một cách không ý thức.

Theo báo cáo gần đây từ Reuters, Meta từng sử dụng các sách điện tử có bản quyền để huấn luyện AI mặc dù có cảnh báo từ luật sư của riêng mình. Công ty gây tranh cãi khi huấn luyện AI của mình trên các bài đăng, ảnh và tiêu đề trên Instagram và Facebook, và làm cho việc từ chối được dùng trở nên khó khăn cho người dùng. Hơn nữa, Meta, cùng với OpenAI, là đối tượng của một vụ kiện đang diễn ra do các tác giả, bao gồm nghệ sĩ hài Sarah Silverman, về việc sử dụng dữ liệu bản quyền mà họ cho là trái phép để huấn luyện mô hình.

Lập trình là một lĩnh vực khác mà khi sử dụng Llama cần cẩn thận. Điều này bởi vì Llama có thể - giống như các mô hình AI generative khác - tạo ra mã lỗi hoặc không an toàn.

Luôn luôn tốt nhất khi có một chuyên gia con người xem xét bất kỳ mã được tạo ra bởi AI trước khi tích hợp nó vào dịch vụ hoặc phần mềm của mình.