Meta, IBM thành lập liên minh thúc đẩy hợp tác phát triển AI nguồn mở

Liên minh hướng đến phát triển AI nguồn mở. (Ảnh minh họa: Reutesr)

Công ty mẹ của Facebook, Meta và IBM đã cùng với khoảng 50 công ty và tổ chức nghiên cứu thành lập Liên minh Trí tuệ Nhân tạo (AI) nhằm bảo đảm một phương thức hợp tác cởi mở hơn trong việc phát triển công nghệ này.

Trong tuyên bố thành lập Liên minh AI, Giám đốc điều hành IBM Arvind Krishna ngày 5/12 nhấn mạnh: “Đây là một thời điểm then chốt trong việc xác định tương lai của AI.”

Cụ thể, IBM, Meta, , Dell, AMD và Intel cùng một số trường đại học và công ty khởi nghiệp AI sẽ cùng tạo ra một liên minh chuyên phát triển AI nguồn mở, chia sẻ công nghệ và giảm thiểu rủi ro tiềm ẩn liên quan đến công nghệ này.

Ưu tiên quan trọng của Liên minh AI là đảm bảo an toàn và bảo mật cho AI. Việc phát triển phần cứng mới, sử dụng các mô hình AI nguồn mở và cộng tác tích cực với các nhà nghiên cứu khoa học cơ bản là những biện pháp được kỳ vọng đảm bảo phát triển công nghệ AI minh bạch và có đạo đức.

Ông Nick Clegg - Chủ tịch phụ trách các vấn đề toàn cầu của Meta - cho biết: “Chúng tôi tin rằng sẽ tốt hơn nếu AI được phát triển mở, theo đó nhiều người có thể tiếp cận các lợi ích, tạo ra các sản phẩm sáng tạo và hướng tới sự an toàn khi ứng dụng công nghệ này”.

Dario Gil, Phó Chủ tịch cấp cao của IBM, người chỉ đạo bộ phận nghiên cứu của IBM, khẳng định sự ủng hộ đối với phương thức tiếp cận “không độc quyền và không khép kín,” theo đó ngăn chặn việc biến AI "thành một thứ bị nhốt trong thùng và không ai biết chúng là gì.”

Ông Gil cho biết Liên minh AI đang “cùng nhau khẳng định tương lai của AI sẽ được xây dựng cơ bản dựa trên nền tảng của sự trao đổi khoa học mở về các ý tưởng và đổi mới, bao gồm cả nguồn mở và công nghệ mở.”

Quan điểm này trái ngược với phương thức phát triển AI "nguồn đóng" mà Google, Microsoft và - công ty đã tạo ra ChatGPT - đang áp dụng.

Cho đến nay OpenAI vẫn bảo mật các thuật toán và mô hình AI của mình, theo đó phải có sự đồng ý của OpenAI mới có thể truy cập chúng.

Biểu tượng OpenAI và ứng dụng ChatGPT. (Ảnh: AFP/TTXVN)

Hai "gã khổng lồ" khác trong lĩnh vực AI như Google và Amazon cũng không tiết lộ mã nguồn hoặc cho phép các nhà nghiên cứu tải xuống mô hình của họ.

Theo quan điểm của những doanh nghiệp này, việc "đóng nguồn" AI sẽ giúp họ bảo toàn quyền kiểm soát công nghệ nhằm đảm bảo AI được triển khai một cách có đạo đức và có trách nhiệm, đồng thời ngăn chặn các đối tượng xấu tìm cách xâm nhập.

Chia sẻ trên mạng xã hội X, trước đây là Twitter, Nhà khoa học trưởng của Meta về lĩnh vực AI, Yann LeCun, bày tỏ lo ngại rằng việc các nhà khoa học đồng nghiệp gây sợ hãi về “kịch bản ngày tận thế” của AI sẽ tạo cơ hội cho những người muốn cấm nghiên cứu và phát triển nguồn mở.

LeCun viết: “Trong tương lai, nơi các hệ thống AI sẵn sàng trở thành kho lưu trữ tất cả kiến thức và văn hóa của con người, chúng ta cần các nền tảng phải là nguồn mở và có sẵn miễn phí để mọi người có thể đóng góp. Sự cởi mở là cách duy nhất để làm cho nền tảng AI phản ánh toàn bộ kiến thức và văn hóa của con người.”

Thuật ngữ “nguồn mở” xuất phát từ việc xây dựng phần mềm kéo dài hàng thập kỷ trong đó mã nguồn miễn phí hoặc có thể truy cập rộng rãi để bất kỳ ai kiểm tra, sửa đổi và xây dựng.

Meta ủng hộ phát triển AI nguồn mở. (Nguồn: Shutterstock)

Tuy vậy, bên cạnh những lợi ích từ việc chia sẻ nguồn mở, điều này cũng đặt ra nguy cơ khi những kẻ xấu lợi dụng các thông tin nguồn mở để phục vụ cho mục đích không chính đáng, thậm chí cho các hoạt động khủng bố.

Trong một cuộc phỏng vấn do Đại học Stanford tổ chức vào tháng 4, ông Ilya Sutskever, Nhà khoa học trưởng và đồng sáng lập của OpenAI, bày tỏ lo ngại khi tiềm năng của một hệ thống AI có khả năng “mạnh mẽ đến khó tin” và sẽ quá nguy hiểm để có thể tiếp cận công khai.

Camille Carlton, Giám đốc Truyền thông tại Trung tâm Công nghệ Nhân đạo cho biết trong bối cảnh hiện tại không có hành lang pháp lý bảo vệ thì việc triển khai những mô hình AI nguồn mở ra công chúng là hoàn toàn vô trách nhiệm./.

(Vietnam+)