Indonesia chặn quyền truy cập vào chatbot AI Grok của Musk vì lý do liên quan đến hình ảnh giả mạo (deepfake) ↗
Indonesia đã tạm thời chặn Grok sau khi ứng dụng này được sử dụng để tạo ra các video giả mạo nội dung tình dục không được sự đồng ý - bao gồm cả hình ảnh nhắm vào phụ nữ và trẻ em. Chính phủ cho rằng đây là vấn đề nhân quyền và an ninh công cộng, chứ không phải là một sự bất tiện nhỏ về công nghệ.
Điểm mấu chốt rất rõ ràng: nếu một công cụ có thể "lột trần" người thật theo lệnh, thì gánh nặng chứng minh sẽ đảo ngược. Các nền tảng phải chứng minh rằng họ có thể ngăn chặn điều đó, chứ không chỉ cam kết rằng họ đang xem xét vấn đề này.
Elon Musk cho rằng Anh muốn đàn áp tự do ngôn luận trong bối cảnh X có thể bị cấm ↗
Các bộ trưởng Anh đã công khai đề xuất phạt tiền - thậm chí là chặn X - sau khi Grok bị sử dụng để tạo ra hình ảnh khiêu dâm mà không có sự đồng ý. Musk đã phản bác bằng lý lẽ quen thuộc về tự do ngôn luận… nhưng lập trường pháp lý ở Anh đang chuyển từ “câu lạc bộ tranh luận” sang “hạn chót tuân thủ”
Ofcom đang bị thúc giục phải hành động nhanh chóng, và các nhà lập pháp đang chỉ ra cùng một mô hình đáng báo động: một khi những hình ảnh này lan truyền, tác hại sẽ không chờ đợi một cách kiên nhẫn để cập nhật chính sách.
🧑💻 Theo các nguồn tin, OpenAI đang yêu cầu các nhà thầu tải lên các sản phẩm thực tế từ các dự án đã thực hiện trước đây ↗
Theo các nguồn tin, OpenAI, cùng với một đối tác cung cấp dữ liệu huấn luyện, đang yêu cầu các nhà thầu tải lên các sản phẩm công việc thực tế từ các dự án trước đây (và hiện tại) - ví dụ như tài liệu, bảng tính, bản trình bày, kho lưu trữ. Mục tiêu đã nêu là để đánh giá và cải thiện khả năng của các tác nhân AI trong các nhiệm vụ văn phòng.
Điều khó hiểu thì quá rõ ràng, và có phần kỳ lạ: các nhà thầu được yêu cầu tự mình xóa bỏ thông tin nhạy cảm. Đó là một sự tin tưởng quá lớn đặt vào một quy trình vận hành nhanh chóng - giống như việc yêu cầu ai đó gỡ bom bằng găng tay lò nướng, một cách trìu mến vậy.
🗂️ OpenAI đang yêu cầu các nhà thầu tải lên các sản phẩm từ các dự án trước đây để đánh giá hiệu suất của các tác nhân AI ↗
Một báo cáo khác đi sâu vào cùng một tình huống và lý do tại sao nó lại gây lo ngại cho các luật sư về quyền riêng tư và sở hữu trí tuệ. Ngay cả khi mọi người đều hành động thiện chí, chỉ thị "gỡ bỏ những thông tin mật" vẫn rất mơ hồ khi bạn đang xử lý các tài liệu doanh nghiệp thực sự.
Điều này cũng hé lộ chiến lược lớn hơn: Các trợ lý AI không chỉ còn là những người bạn đồng hành lắm lời nữa - chúng đang được huấn luyện để mô phỏng thực tế phức tạp, đa tầng của công việc thực tế. Thực tế, đúng vậy. Nhưng cũng hơi… đáng sợ.
🏦 Allianz và Anthropic hợp tác toàn cầu để thúc đẩy trí tuệ nhân tạo có trách nhiệm trong ngành bảo hiểm ↗
Allianz và Anthropic đã công bố một quan hệ đối tác toàn cầu tập trung vào ba lĩnh vực: năng suất của nhân viên, tự động hóa hoạt động thông qua trí tuệ nhân tạo (AI) và tuân thủ theo thiết kế. Ngành bảo hiểm vốn dĩ phức tạp với nhiều thủ tục giấy tờ, vì vậy "AI" ở đây về cơ bản có nghĩa là tự động hóa các quy trình làm việc phức tạp mà không làm mất dấu vết kiểm toán.
Ý tưởng chung là: hãy thực hiện tự động hóa hiện đại, nhưng nhớ giữ lại hóa đơn. Trong các ngành công nghiệp được quản lý chặt chẽ, đó là cách duy nhất để mở rộng quy mô mà không biến thành gánh nặng pháp lý.
🕵️♂️ Tuyên bố đáp lại Grok AI trên X ↗
Cơ quan quản lý bảo vệ dữ liệu của Anh cho biết họ đã liên hệ với X và xAI để làm rõ cách thức xử lý dữ liệu cá nhân và bảo vệ quyền lợi người dùng, trước những lo ngại xung quanh nội dung do Grok tạo ra. Vấn đề không chỉ là “kiểm duyệt nội dung” mà còn là liệu dữ liệu của người dùng có được xử lý hợp pháp hay không và liệu quyền lợi của họ có được bảo vệ hay không.
Đây là kiểu động thái quản lý nghe có vẻ lịch sự, nhưng sẽ âm thầm trở nên vô cùng nghiêm trọng nếu câu trả lời không rõ ràng… hoặc né tránh, hoặc cả hai.
Câu hỏi thường gặp
Tại sao Indonesia lại chặn quyền truy cập vào Grok AI?
Indonesia đã tạm thời chặn Grok sau khi có báo cáo cho rằng ứng dụng này được sử dụng để tạo ra các video giả mạo nội dung tình dục không được sự đồng ý, bao gồm cả hình ảnh nhắm vào phụ nữ và trẻ em. Các quan chức cho rằng động thái này là vấn đề nhân quyền và an ninh công cộng, chứ không phải là một tranh chấp công nghệ nhỏ. Thông điệp ngầm là câu nói "chúng ta sẽ khắc phục sau" không hiệu quả khi các công cụ có thể gây ra tác hại ngay lập tức và không thể đảo ngược.
Vương quốc Anh đang cân nhắc điều gì sau khi các video giả mạo do Grok tạo ra xuất hiện trên X?
Các bộ trưởng Anh đã công khai thảo luận về việc phạt tiền và thậm chí cả khả năng chặn nền tảng X sau khi Grok bị sử dụng để tạo ra hình ảnh khiêu dâm mà không có sự đồng ý. Quan điểm chính trị và pháp lý đang chuyển sang hướng tuân thủ có thể thực thi, chứ không phải là tranh luận không giới hạn. Vấn đề mà các nhà lập pháp liên tục nhấn mạnh là thời điểm: một khi hình ảnh lan truyền, nạn nhân sẽ phải đối mặt với tổn hại rất lâu trước khi các nền tảng công bố các chính sách cập nhật.
Việc các cơ quan quản lý "đảo ngược gánh nặng chứng minh" đối với các công cụ xử lý hình ảnh bằng AI có nghĩa là gì?
Ý tưởng “đảo ngược gánh nặng chứng minh” có nghĩa là các nền tảng có thể cần phải chứng minh rằng họ có thể ngăn chặn những tác hại cụ thể - như tạo ra hình ảnh “cởi đồ” không được sự đồng ý - thay vì chỉ hứa hẹn các biện pháp bảo vệ. Trên thực tế, điều này thúc đẩy các công ty hướng tới các biện pháp kiểm soát có thể chứng minh được, việc thực thi có thể đo lường được và xử lý sự cố rõ ràng. Nó cũng báo hiệu rằng “ý định” ít quan trọng hơn so với kết quả hữu hình và việc ngăn chặn có thể lặp lại.
Các nền tảng có thể giảm thiểu rủi ro từ các video giả mạo (deepfake) do AI tạo ra mà không có sự đồng ý của người dùng bằng cách nào?
Một cách tiếp cận phổ biến là phòng ngừa nhiều lớp: hạn chế các yêu cầu và đầu ra liên quan đến người thật, chặn các yêu cầu kiểu "cởi đồ", và phát hiện तथा ngăn chặn các nỗ lực tạo ra hình ảnh khiêu dâm mà không có sự đồng ý. Nhiều quy trình xử lý bổ sung thêm giới hạn tốc độ, giám sát danh tính và hành vi lạm dụng mạnh mẽ hơn, và quy trình gỡ bỏ nhanh chóng khi nội dung lan truyền. Mục tiêu không chỉ là ngôn ngữ chính sách, mà còn là các công cụ có thể chịu được sự lạm dụng của đối thủ.
Tại sao việc các cộng tác viên của OpenAI tải lên các tài liệu công việc thực tế lại gây ra lo ngại?
Các báo cáo cho biết OpenAI (cùng với một đối tác dữ liệu huấn luyện) đang yêu cầu các nhà thầu tải lên các sản phẩm công việc thực tế - tài liệu, bảng tính, bản trình bày và kho lưu trữ - để đánh giá và cải thiện các tác nhân AI thực hiện công việc văn phòng. Mối lo ngại là các nhà thầu được yêu cầu tự mình loại bỏ các chi tiết nhạy cảm, điều này có thể dễ xảy ra lỗi. Các luật sư về quyền riêng tư và sở hữu trí tuệ lo ngại rằng hướng dẫn "xóa bỏ thông tin mật" này quá mơ hồ đối với các tài liệu thực tế của doanh nghiệp.
Việc Allianz hợp tác với Anthropic về “trí tuệ nhân tạo đại lý” trong lĩnh vực bảo hiểm có ý nghĩa gì?
Allianz và Anthropic đã mô tả một quan hệ đối tác toàn cầu tập trung vào năng suất của nhân viên, tự động hóa hoạt động bằng trí tuệ nhân tạo (AI) dạng tác nhân và tuân thủ theo thiết kế. Quy trình làm việc trong ngành bảo hiểm rất phức tạp và chịu sự quản lý chặt chẽ, vì vậy thuật ngữ “tác nhân” thường ám chỉ việc tự động hóa các quy trình nhiều bước mà không làm mất đi trách nhiệm giải trình. Việc nhấn mạnh vào nhật ký kiểm toán và “giữ lại biên lai” phản ánh một thực tế: tự động hóa chỉ có thể mở rộng quy mô trong các ngành được quản lý chặt chẽ khi nó vẫn có thể được kiểm tra và bảo vệ.