Image Credits: hapabapa / Getty Images
Liệu AI sinh động được thiết kế cho doanh nghiệp (ví dụ, AI tự động hoàn thành báo cáo, công thức bảng tính và vân vân) có thể tương tác được không? Cùng với một nhóm các tổ chức bao gồm Cloudera và Intel, Linux Foundation - tổ chức phi lợi nhuận hỗ trợ và duy trì một số nỗ lực mã nguồn mở đang tăng lên - đang hướng tới việc tìm hiểu điều này.
Linux Foundation vào thứ Ba đã công bố việc ra mắt Nền tảng Mở cho AI Doanh nghiệp (OPEA), một dự án nhằm thúc đẩy việc phát triển các hệ thống AI sinh động mở, đa nhà cung cấp và có thể tạo thành các module. Dưới sự giám sát của LF AI và Data org của Linux Foundation, tổ chức tập trung vào các sáng kiến liên quan đến nền tảng AI và dữ liệu, mục tiêu của OPEA sẽ là mở đường cho việc phát hành các hệ thống AI sinh động “cứng cáp”, “có thể mở rộng” mà “tận dụng sự đổi mới mã nguồn mở tốt nhất từ khắp hệ sinh thái,” giám đốc điều hành của LF AI và Data, Ibrahim Haddad, nói trong một thông cáo báo chí.
“OPEA sẽ mở ra những khả năng mới trong AI bằng cách tạo ra một khung làm việc chi tiết, có thể tạo thành các module đứng đầu trong các ngăn xếp công nghệ,” Haddad nói. “Sáng kiến này là minh chứng cho sứ mệnh của chúng tôi là thúc đẩy sự đổi mới mã nguồn mở và hợp tác trong cộng đồng AI và dữ liệu dưới một mô hình quản trị trung lập và mở.”
Ngoài Cloudera và Intel, OPEA - một trong những Dự án Sandbox của Linux Foundation, một chương trình ủy nhiệm của một loại - có trong số thành viên của mình những ông lớn doanh nghiệp như Intel, Red Hat thuộc sở hữu của IBM, Hugging Face, Domino Data Lab, MariaDB và VMware.
Vậy họ có thể xây dựng gì cùng nhau chính xác? Haddad gợi ý một vài khả năng, chẳng hạn như hỗ trợ “tối ưu hóa” cho các chuỗi công cụ AI và trình biên dịch, cho phép các tác vụ AI chạy trên các thành phần phần cứng khác nhau, cũng như các đường ống “khác nhau” cho việc tạo ra thế hệ lấy lại (RAG).
RAG đang trở nên ngày càng phổ biến trong các ứng dụng AI sinh động của doanh nghiệp, và không khó để hiểu tại sao. Hầu hết các câu trả lời và hành động của mô hình AI sinh động đều bị giới hạn bởi dữ liệu mà chúng được đào tạo. Nhưng với RAG, cơ sở tri thức của một mô hình có thể được mở rộng ra ngoài dữ liệu đào tạo ban đầu. Các mô hình RAG tham chiếu đến thông tin bên ngoài này - có thể là dữ liệu riêng của công ty, một cơ sở dữ liệu công cộng hoặc một sự kết hợp của cả hai - trước khi tạo ra một phản hồi hoặc thực hiện một nhiệm vụ.
Một sơ đồ giải thích về mô hình RAG. Image Credits: Intel
Intel đã cung cấp thêm một số chi tiết trong thông cáo báo chí của mình:
Các doanh nghiệp đang đối mặt với thách thức tự làm [với RAG] bởi vì không có tiêu chuẩn de facto nào giữa các thành phần cho phép các doanh nghiệp lựa chọn và triển khai các giải pháp RAG mà là mở và có thể tương tác và giúp họ nhanh chóng ra thị trường. OPEA dự định giải quyết những vấn đề này bằng cách hợp tác với ngành công nghiệp để chuẩn hóa các thành phần, bao gồm các khung, bản vẽ kiến trúc và giải pháp tham khảo.
Đánh giá cũng sẽ là một phần quan trọng mà OPEA giải quyết.
Trong kho lưu trữ GitHub của mình, OPEA đề xuất một thang đánh giá để xếp loại các hệ thống AI sinh động dọc theo bốn trục: hiệu suất, tính năng, đáng tin cậy và “sẵn sàng cho doanh nghiệp”. Hiệu suất theo định nghĩa của OPEA liên quan đến các điểm chuẩn “hộp đen” từ các trường hợp sử dụng thực tế. Tính năng là một đánh giá về khả năng tương tác của một hệ thống, lựa chọn triển khai và dễ sử dụng. Đáng tin cậy nhìn vào khả năng của một mô hình AI đảm bảo “sự vững chắc” và chất lượng. Và sẵn sàng cho doanh nghiệp tập trung vào các yêu cầu để khởi chạy một hệ thống mà không gặp phải các vấn đề lớn.
Rachel Roumeliotis, giám đốc chiến lược mã nguồn mở tại Intel, nói rằng OPEA sẽ làm việc với cộng đồng mã nguồn mở để cung cấp các bài kiểm tra dựa trên thang đánh giá, cũng như cung cấp đánh giá và xếp loại các triển khai AI sinh động theo yêu cầu.
Những nỗ lực khác của OPEA hiện đang mơ hồ. Nhưng Haddad đã đề cập đến khả năng phát triển mô hình mở theo hướng của gia đình Llama mở rộng của Meta và DBRX của Databricks. Để phục vụ mục đích đó, trong kho lưu trữ OPEA, Intel đã đóng góp các triển khai tham khảo cho một chatbot được cung cấp bởi AI sinh động, trình tóm tắt tài liệu và trình tạo mã được tối ưu hóa cho phần cứng Xeon 6 và Gaudi 2 của mình.
Bây giờ, các thành viên của OPEA rất rõ ràng đã đầu tư (và tự quan tâm, vì vậy) vào việc xây dựng công cụ cho AI sinh động doanh nghiệp. Cloudera gần đây đã khởi xướng các đối tác để tạo ra những gì nó đang đề xuất là một “hệ sinh thái AI” trên đám mây.
Domino cung cấp một bộ ứng dụng để xây dựng và kiểm tra AI sinh động hướng đến doanh nghiệp. Và VMware - hướng về phía cơ sở hạ tầng của AI doanh nghiệp - vào tháng 8 vừa qua đã tung ra các sản phẩm tính toán “AI riêng tư” mới.
Câu hỏi là liệu những nhà cung cấp này có thực sự làm việc cùng nhau để xây dựng các công cụ AI tương thích chéo dưới OPEA hay không.
Có một lợi ích rõ ràng khi làm như vậy. Khách hàng sẽ vui mừng khi lựa chọn nhiều nhà cung cấp tùy thuộc vào nhu cầu, nguồn lực và ngân sách của họ. Nhưng lịch sử đã chỉ ra rằng việc dễ dàng bị thiên về khóa nhà cung cấp quá dễ dàng. Hy vọng đó không phải là kết quả cuối cùng ở đây.