Phúc Anh Store Blog
Tin tức công nghệ

Đây là làm thế nào OpenAI sẽ xác định mức độ mạnh mẽ của hệ thống trí tuệ nhân tạo của mình


OpenAI đã tạo ra một thang đo nội bộ để theo dõi tiến trình các mô hình ngôn ngữ lớn của mình đang thực hiện hướng tới trí tuệ nhân tạo tổng quát, hay AI có trí thông minh giống con người, một phát ngôn viên nói Bloomberg.

Các chatbot ngày nay, như ChatGPT, đang ở Cấp độ 1. OpenAI tuyên bố rằng họ đang tiến gần đến Cấp độ 2, được định nghĩa là một hệ thống có thể giải quyết các vấn đề cơ bản ở cấp độ của một người có bằng tiến sĩ. Cấp độ 3 đề cập đến các tác nhân AI có khả năng thực hiện các hành động thay mặt cho người dùng. Cấp độ 4 liên quan đến AI có thể tạo ra những cải tiến mới. Cấp độ 5, bước cuối cùng để đạt được AGI, là AI có thể thực hiện công việc của toàn bộ tổ chức con người. OpenAI trước đây đã định nghĩa AGI là “một hệ thống có tính tự chủ cao vượt trội hơn con người trong hầu hết các nhiệm vụ có giá trị kinh tế”.

Cấu trúc độc đáo của OpenAI tập trung vào sứ mệnh đạt được AGI và cách OpenAI định nghĩa AGI là rất quan trọng. Công ty đã nói rằng “nếu một dự án có giá trị, có ý thức về an toàn tiến gần đến việc xây dựng AGI” trước khi OpenAI làm được, công ty cam kết không cạnh tranh với dự án và từ bỏ mọi thứ để hỗ trợ. Cách diễn đạt này trong OpenAI điều lệ còn mơ hồ, để lại chỗ cho sự phán đoán của tổ chức vì lợi nhuận (do tổ chức phi lợi nhuận quản lý), nhưng thang đo mà OpenAI có thể tự kiểm tra và các đối thủ cạnh tranh có thể giúp xác định thời điểm đạt được AGI một cách rõ ràng hơn.

Tuy nhiên, AGI vẫn còn khá xa vời: sẽ cần hàng tỷ đô la sức mạnh tính toán để đạt được AGI, nếu có. Các mốc thời gian từ các chuyên gia, và thậm chí từ OpenAI, thay đổi rất nhiều. Vào tháng 10 năm 2023, Giám đốc điều hành OpenAI Sam Altman nói chúng ta phải mất “năm năm, cộng hoặc trừ” trước khi đạt được AGI.

Thang điểm mới này, mặc dù vẫn đang trong quá trình phát triển, đã được giới thiệu một ngày sau OpenAI đã công bố sự hợp tác của nó với Phòng thí nghiệm quốc gia Los Alamos, nhằm mục đích khám phá cách các mô hình AI tiên tiến như GPT-4o có thể hỗ trợ an toàn cho nghiên cứu khoa học sinh học. Một người quản lý chương trình tại Los Alamos, chịu trách nhiệm về danh mục sinh học an ninh quốc gia và đóng vai trò quan trọng trong việc bảo đảm quan hệ đối tác OpenAI, đã nói The Verge rằng mục tiêu là kiểm tra khả năng của GPT-4o và thiết lập một bộ các yếu tố an toàn và các yếu tố khác cho chính phủ Hoa Kỳ. Cuối cùng, các mô hình công cộng hoặc tư nhân có thể được kiểm tra theo các yếu tố này để đánh giá các mô hình của riêng họ.

Vào tháng 5, OpenAI giải tán đội an toàn của mình sau khi người đứng đầu nhóm, đồng sáng lập OpenAI Ilya Sutskever, rời công ty. Jan Leike, một nhà nghiên cứu quan trọng của OpenAI, đã từ chức ngay sau đó tuyên bố trong một bài đăng rằng “văn hóa và quy trình an toàn đã lùi lại phía sau các sản phẩm sáng bóng” tại công ty. Trong khi OpenAI phủ nhận điều đó, một số người lo ngại về ý nghĩa của điều này nếu công ty thực sự đạt được AGI.

OpenAI chưa cung cấp thông tin chi tiết về cách nó gán các mô hình cho các cấp độ nội bộ này (và đã từ chối The Verge‘yêu cầu bình luận). Tuy nhiên, các nhà lãnh đạo công ty đã trình bày một dự án nghiên cứu sử dụng mô hình AI GPT-4 trong cuộc họp toàn thể vào thứ năm và tin rằng dự án này giới thiệu một số kỹ năng mới thể hiện khả năng lý luận giống con người, theo Bloomberg.

Thang đo này có thể giúp cung cấp một định nghĩa chặt chẽ về tiến trình, thay vì để nó tùy thuộc vào cách diễn giải. Ví dụ, CTO của OpenAI Mira Murati cho biết trong một cuộc phỏng vấn vào tháng 6 rằng các mô hình trong phòng thí nghiệm của họ không tốt hơn nhiều so với những gì công chúng đã có. Trong khi đó, CEO Sam Altman nói vào cuối năm ngoái rằng công ty gần đây đã “vén bức màn vô minh”, nghĩa là các mô hình thông minh hơn đáng kể.





Source link

Tin cùng danh mục

Mọi thứ bạn cần biết về máy tính xách tay bạn có thể sửa chữa thay vì thay thế

Mỹ sắp ép Google bán Chrome

Instagram sẽ cho phép bạn xây dựng lại các đề xuất của mình từ đầu