ChatGPT được chú ý khi Breton của EU làm rõ các quy tắc AI
Giám đốc ngành công nghiệp EU Thierry Breton cho biết các quy tắc trí tuệ nhân tạo mới được đề xuất sẽ nhằm giải quyết những lo ngại về rủi ro xung quanh ChatGPT và công nghệ AI, trong nhận xét đầu tiên về ứng dụng của một quan chức cấp cao của Brussels.

Chỉ hai tháng sau khi ra mắt, ChatGPT – có thể tạo các bài báo, tiểu luận, truyện cười và thậm chí cả thơ để đáp lại lời nhắc – đã được đánh giá là ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử.
Một số chuyên gia lo ngại rằng các hệ thống được sử dụng bởi các ứng dụng như vậy có thể bị lạm dụng để đạo văn, lừa đảo và truyền bá thông tin sai lệch, ngay cả khi những nhà vô địch về trí tuệ nhân tạo ca ngợi đây là một bước nhảy vọt về công nghệ.
Breton cho biết những rủi ro do ChatGPT – sản phẩm trí tuệ của OpenAI, một công ty tư nhân được hỗ trợ bởi Microsoft Corp (MSFT.O) – và các hệ thống AI gây ra đã nhấn mạnh nhu cầu cấp thiết đối với các quy tắc mà ông đã đề xuất vào năm ngoái trong nỗ lực thiết lập tiêu chuẩn toàn cầu cho công nghệ. Các quy tắc hiện đang được thảo luận tại Brussels.
“Như ChatGPT đã giới thiệu, các giải pháp AI có thể mang lại cơ hội tuyệt vời cho doanh nghiệp và người dân, nhưng cũng có thể gây ra rủi ro. Đây là lý do tại sao chúng ta cần một khung pháp lý vững chắc để đảm bảo AI đáng tin cậy dựa trên dữ liệu chất lượng cao”, ông nói với Reuters trong các bình luận bằng văn bản .
Microsoft từ chối bình luận về tuyên bố của Breton. OpenAI – có ứng dụng sử dụng công nghệ gọi là AI tổng quát – đã không trả lời ngay lập tức yêu cầu bình luận.
OpenAI đã cho biết trên trang web của mình rằng nó nhằm mục đích tạo ra trí tuệ nhân tạo “mang lại lợi ích cho toàn nhân loại” khi nó cố gắng xây dựng AI an toàn và có lợi.
Theo các quy tắc dự thảo của EU, ChatGPT được coi là một hệ thống AI có mục đích chung, có thể được sử dụng cho nhiều mục đích, bao gồm cả những mục đích có rủi ro cao như lựa chọn ứng viên cho công việc và chấm điểm tín dụng.

Breton muốn OpenAI hợp tác chặt chẽ với các nhà phát triển hạ nguồn của các hệ thống AI có rủi ro cao để cho phép họ tuân thủ Đạo luật AI được đề xuất.
Một đối tác tại một công ty luật Hoa Kỳ cho biết: “Thực tế là AI mới được đưa vào định nghĩa cho thấy tốc độ phát triển của công nghệ và các cơ quan quản lý đang phải vật lộn để theo kịp tốc độ này”.
Nỗi lo ‘RỦI RO CAO’
Theo giám đốc điều hành của một số công ty tham gia phát triển trí tuệ nhân tạo, các công ty lo lắng về việc công nghệ của họ bị xếp vào danh mục AI “rủi ro cao”, điều này sẽ dẫn đến các yêu cầu tuân thủ khó khăn hơn và chi phí cao hơn.
Một cuộc khảo sát của cơ quan công nghiệp ứng dụng AI cho thấy 51% số người được hỏi cho rằng các hoạt động phát triển AI của họ sẽ chậm lại do Đạo luật AI.
Chủ tịch Microsoft Brad Smith đã viết trong một bài đăng trên blog vào thứ Tư rằng các quy định hiệu quả về AI nên tập trung vào các ứng dụng có rủi ro cao nhất.
“Có những ngày tôi lạc quan và những lúc tôi bi quan về cách nhân loại sẽ đưa AI vào sử dụng,” anh nói.
Breton cho biết Ủy ban châu Âu đang hợp tác chặt chẽ với Hội đồng EU và Nghị viện châu Âu để làm rõ hơn các quy tắc trong Đạo luật AI cho các hệ thống AI có mục đích chung.
Ông nói: “Mọi người cần được thông báo rằng họ đang làm việc với một chatbot chứ không phải con người. Tính minh bạch cũng rất quan trọng đối với nguy cơ sai lệch và thông tin sai lệch”.
Các mô hình AI sáng tạo cần được đào tạo về số lượng lớn văn bản hoặc hình ảnh để tạo ra phản hồi thích hợp dẫn đến các cáo buộc vi phạm bản quyền .
Breton cho biết các cuộc thảo luận sắp tới với các nhà lập pháp về các quy tắc AI sẽ đề cập đến những khía cạnh này.
Những lo ngại về hành vi đạo văn của sinh viên đã khiến một số trường công lập của Hoa Kỳ và trường đại học Science Po của Pháp cấm sử dụng ChatGPT.