Chế ngự tật xấu của AI

Sky Nguyen nguồn bình luận 999
A- A A+
AI tạo ra những tác phẩm của “nửa người nửa máy“ hay hoàn toàn AI nhưng ký tên người nào đó
Chế ngự tật xấu của AI
Ảnh: REUTERS

Ngay sau khi ChatGPT và một loạt ứng dụng AI tương tự được đưa ra thị trường, bên cạnh những lợi ích do chúng đem lại, thế giới đã phải chịu những hệ lụy do chúng gây ra, chủ yếu do bị lợi dụng.

Vi phạm bản quyền, quyền bảo vệ thương hiệu

Công nghệ AI không chỉ được liên tục phát triển, nâng cấp mà bản thân nó có thể tự phát triển những cấp độ cao hơn như máy học, học sâu… Dù người dùng ChatGPT hiện nay hầu hết là do tò mò nhưng các nhà chuyên môn cảnh báo sẽ xảy ra tình trạng lạ‌m dụn‌g siêu chatbot này cho mục đích xấu, thậm chí vi phạm Pháp Luật.

ChatGPT đang tạm thời bị cấm ở Nga, hạn chế ở Anh và nhiều quốc gia khác thuộc Liên minh châu Âu 

Một trong những rắc rối mang tính pháp lý về lạ‌m dụn‌g AI là vụ Getty Images, công ty kinh doanh dịch vụ cung cấp hình ảnh và video lớn nhất thế giới, ngày 6-2 đã khởi kiện Stability AI vì "vi phạm trắng trợn quyền sở hữu trí tuệ của Getty Images". Getty Images cho biết Stability AI đã sao chép không được phép hơn 12 triệu hình ảnh từ cơ sở dữ liệu của Getty Images để phục vụ cho việc huấn luyện mô hình AI của họ. Getty Images khẳng định Stability AI đã vi phạm cả bản quyền lẫn quyền bảo vệ thương hiệu. Đã có những vụ "lừa" ChatGPT khiến nó vượt qua luật lệ (của nhà phát triển) để phục vụ cho ý đồ riêng của người dùng. Chẳng hạn, kẻ xấu có thể dùng các công cụ AI như ChatGPT để tìm kiếm thông tin, thậm chí giải pháp tham khảo cho mình. Đặc biệt, với khả năng xử lý thông tin, dữ liệu "kinh khủng", các ứng dụng AI gây ra những vấn đề về bản quyền tác giả với những tác phẩm của "nửa người nửa máy" hay hoàn toàn AI tạo ra nhưng ký tên người nào đó. Ngành giáo dục sẽ phải tìm cách xử lý những bài tập, bài luận có sự tham gia của AI. Trên website của mình, Check Point Research ngày 6-1 đã dẫn chứng 3 trường hợp ChatGPT đã bị kẻ xấu sử dụng để viết phần mềm đánh cắp thông tin, công cụ mã hóa và gian lận. Khi được sử dụng ngày càng rộng rãi hơn mà không được "cha đẻ" trao cho khả năng phân biệt đúng sai, phi logic, thậm chí phân biệt tốt xấu..., các ứng dụng AI sẽ bị "quảng đại công chúng" cố tình "dạy" bậy bạ.

Quy chuẩn đạo đức nghiên cứu AI

Ngày 28-2, viện Michael Dukakis, Diễn đàn Toàn cầu Boston (BGF), Liên minh Toàn cầu về quản trị số (GADG) tổ chức phiên thảo luận cấp cao đầu tiên với sự tham gia của các chuyên gia toàn cầu để xây dựng dự thảo khung Quy tắc quản trị ChatGPT và các trợ lý AI.

Ông Nguyễn Anh Tuấn - Giám đốc điều hành của BGF, nguyên Tổng Biên tập Báo điện tử Báo - cho biết: "Công nghệ ChatGPT ngoài tiện ích cũng làm tăng các mối quan tâm về thương mại, cạnh tranh và tiêu chuẩn đạo đức. Các chuyên gia về công nghệ, ngoại giao đang vật lộn với những vấn đề hóc búa đòi hỏi phải khẩn trương xây dựng khung pháp lý cho vấn đề AI. BGF và viện Michael Dukakis tổ chức một loạt đối thoại cấp cao về ChatGPT và AI với sự tham gia của các chính khách, lãnh đạo, chuyên gia và nhà hoạch định chính sách nổi tiếng trong AI và quản trị để tham gia vào một dự án quan trọng nhằm đánh giá tác động của chúng đối với xã hội. Theo ông Nguyễn Anh Tuấn, BGF và GADG nỗ lực tìm các giải pháp giải quyết các rủi ro và thách thức do AI đặt ra trong cuộc sống. Ông Tuấn cho biết: "Chúng tôi đang hợp tác với các nhà phát triển trợ lý AI để quản lý và giảm thiểu rủi ro tiềm ẩn của chúng, đặt mục tiêu sử dụng các nguồn lực của mình để dẫn dắt việc tạo ra các chính sách và quy định về AI có trách nhiệm thông qua Hiệp định quốc tế về AI" .

Tại hội nghị ở Mountain View (bang California - Mỹ) ngày 13-2, huyền thoại công nghệ Vint Cerf - "cha đẻ của internet" đã đề nghị các công ty công nghệ lớn đừng tranh nhau đầu tư vào AI đàm thoại chỉ vì ChatGPT "thật sự thú vị". Ngay cả "cha đẻ của ChatGPT" là Sam Altman, Giám đốc điều hành Công ty OpenAI, cũng đã cảnh báo rằng công nghệ này mang đến một số mối nguy hiểm thật sự và xã hội phải rất cẩn trọng. Từ nhiều năm trước, các ông lớn công nghệ như Microsoft, Google… đã có những quy chuẩn đạo đức trong việc nghiên cứu phát triển AI. Thậm chí có những lĩnh vực không được phép đưa AI vào. Microsoft đã thành lập Ủy ban AI, Đạo đức và Hiệu ứng trong kỹ thuật và nghiên cứu (Aether), đưa ra 6 nguyên tắc AI: công bằng, toàn diện, độ tin cậy và an toàn, minh bạch, quyền riêng tư và bảo mật cũng như trách nhiệm giải trình. Google liên kết các hoạt động AI có trách nhiệm của họ với hoạt động phát triển phần mềm có trách nhiệm, nhấn mạnh các khía cạnh như tính công bằng, khả năng diễn giải, quyền riêng tư và bảo mật. Facebook công nhận 5 trụ cột đối với AI có trách nhiệm: quyền riêng tư và bảo mật, công bằng và hòa nhập, mạnh mẽ và an toàn, minh bạch và kiểm soát, trách nhiệm giải trình và quản trị. Một trong những vấn đề đau đầu là quyền sở hữu trí tuệ khi các ứng dụng AI được đào tạo dựa trên các nguồn dữ liệu đang có trên thế giới. Một kết quả do ứng dụng AI tạo ra chứa đựng vô số dữ liệu của các chủ nhân khác nhau.

Không ai có thể phủ nhận được những lợi ích mà AI đem lại cho con người khi nó được khai thác đúng đắn. Vì thế, vấn đề là cách con người quản lý AI - trước hết là các khung pháp lý và quy chuẩn đạo đức cho AI. 

Nguồn Tin:
Video và Bài nổi bật