Sa hoàng Anh nói cần có luật mới để truy tố những người huấn luyện bot AI cực đoan

Kinh nghiệm đầu tư vào Crypto cho người mới – Hội quán (forexitig.com)

Sa hoàng Anh nói cần có luật mới để truy tố những người huấn luyện bot AI cực đoan​

admin – 04 Th1, 2024

Yêu cầu này được đưa ra sau khi cố vấn pháp luật chống khủng bố hàng đầu của Vương quốc Anh được “tuyển dụng” bởi các chatbot AI đóng giả là những kẻ khủng bố trên nền tảng Character.AI.

photo_2024-01-04_13-42-54-600x399-1.jpg

Nhà đánh giá độc lập về luật chống khủng bố của Vương quốc Anh, Jonathan Hall KC, muốn chính phủ xem xét luật quy định con người phải chịu trách nhiệm về kết quả đầu ra do các chatbot trí tuệ nhân tạo (AI) mà họ đã tạo hoặc đào tạo tạo ra.

Hall gần đây đã viết một bài báo cho Telegraph, trong đó anh ấy mô tả một loạt “thí nghiệm” mà anh ấy đã thực hiện với chatbot trên nền tảng Character.AI.


Theo Hall, các chatbot được đào tạo để đưa ra các thông điệp bắt chước lời lẽ khủng bố và thông báo tuyển dụng có thể dễ dàng truy cập trên nền tảng này.

Ông viết rằng một chatbot, được tạo bởi một người dùng ẩn danh, đã tạo ra những kết quả có lợi cho “Nhà nước Hồi giáo” – một thuật ngữ liên quan đến các nhóm thường bị Liên hợp quốc gắn mác là tổ chức khủng bố – bao gồm cả nỗ lực chiêu mộ Hall vào nhóm và cam kết rằng nó sẽ “hy sinh mạng sống (ảo) của mình vì chính nghĩa.”

Theo ý kiến của Hall, “thật nghi ngờ” rằng các nhân viên tại Character.AI có khả năng giám sát tất cả các chatbot được tạo trên nền tảng để phát hiện nội dung cực đoan. Ông viết: “Không điều nào trong số này có thể cản trở công ty khởi nghiệp có trụ sở tại California đang cố gắng huy động vốn, theo Bloomberg, 5 tỷ USD”.

Về phần Character.AI, các điều khoản dịch vụ của công ty nghiêm cấm nội dung khủng bố và cực đoan và người dùng phải xác nhận các điều khoản trước khi tham gia vào nền tảng này.

Người phát ngôn cũng nói với các phóng viên tại BBC rằng công ty cam kết đảm bảo an toàn cho người dùng và do đó, công ty sử dụng nhiều biện pháp can thiệp đào tạo và kỹ thuật kiểm duyệt nội dung nhằm hướng người mẫu tránh xa nội dung có hại.

Hall mô tả các nỗ lực kiểm duyệt hiện tại của ngành AI nói chung là không hiệu quả trong việc ngăn cản người dùng tạo và đào tạo các bot được thiết kế để tán thành các hệ tư tưởng cực đoan.

Cuối cùng, Hall kết luận rằng “luật pháp phải có khả năng ngăn chặn những hành vi cay độc hoặc liều lĩnh nhất trên mạng”.

“Điều đó phải bao gồm việc tiếp cận phía sau bức màn với các nền tảng công nghệ lớn trong những trường hợp xấu nhất, sử dụng luật chống khủng bố cập nhật và luật an toàn trực tuyến phù hợp với thời đại AI.”

Mặc dù bài xã luận không đưa ra khuyến nghị chính thức, nhưng nó chỉ ra rằng cả Đạo luật An toàn Trực tuyến năm 2023 của Vương quốc Anh và Đạo luật Khủng bố năm 2003 đều không giải quyết thỏa đáng vấn đề về công nghệ AI tổng hợp, vì chúng không đề cập cụ thể đến nội dung được tạo ra bởi lớp chatbot hiện đại.

Ở Hoa Kỳ, những lời kêu gọi tương tự về luật quy định trách nhiệm pháp lý của con người đối với nội dung có khả năng gây hại hoặc bất hợp pháp do hệ thống AI tạo ra đã nhận được nhiều phản ứng trái chiều từ các chuyên gia và nhà lập pháp.

Năm ngoái, Tòa án Tối cao Hoa Kỳ đã từ chối thay đổi các biện pháp bảo vệ nhà xuất bản và máy chủ hiện có theo Mục 230 đối với phương tiện truyền thông xã hội, công cụ tìm kiếm và các nền tảng nội dung của bên thứ ba khác bất chấp sự phổ biến của các công nghệ mới như ChatGPT.

Các nhà phân tích tại Viện Cato, cùng với các chuyên gia khác, cho rằng việc loại trừ nội dung do AI tạo ra khỏi các biện pháp bảo vệ Mục 230 có thể khiến các nhà phát triển ở Hoa Kỳ từ bỏ nỗ lực của họ trong lĩnh vực AI, vì bản chất không thể đoán trước của các mô hình “hộp đen” khiến điều đó có vẻ bề ngoài. không thể đảm bảo các dịch vụ như ChatGPT không vi phạm pháp luật.


Cách tạo địa chỉ ví Bitcoin trên Remitano đơn giản nhất -Hội quán (forexitig.com)

 

Có thể bạn quan tâm

Bên trên
}, 0); });