Tin tức về quy định AI

Tin tức về quy định AI hôm nay

Bạn vừa truy cập vào Cửa hàng Trợ lý AI , vậy là bạn đã đến đúng nơi rồi.

Hãy truy cập mục Tin tức để xem tin tức hàng ngày về quy định AI.

Về cơ bản, ý tưởng cho Cửa hàng Trợ lý AI là: ngừng chìm đắm trong tiếng ồn AI, tìm kiếm AI mà bạn thực sự có thể tin tưởng và tiếp tục cuộc sống của mình 😅 - với AI dành cho doanh nghiệp, AI cá nhân, bài viết và cập nhật tin tức tất cả ở cùng một nơi. [5]


Xu hướng hiện tại: việc điều chỉnh đang chuyển từ "nguyên tắc" sang "bằng chứng" 🧾🧠

Nhiều quy tắc và kỳ vọng về việc thực thi AI đang chuyển từ những giá trị nghe có vẻ hay ho (công bằng! minh bạch! trách nhiệm giải trình!) sang những kỳ vọng mang tính vận hành :

  • Hãy trình bày bài làm của bạn

  • ghi lại hệ thống của bạn

  • ghi nhãn một số thành phần tổng hợp nhất định

  • Quản lý nhà cung cấp một cách nghiêm túc .

  • Chứng minh rằng quản trị tồn tại ngoài những bài thuyết trình trên slide.

  • Hãy lưu giữ nhật ký kiểm toán có thể tồn tại sau khi tiếp xúc với thực tế.

Đạo luật AI của EU là một ví dụ rõ ràng về hướng “chứng minh” này: nó không chỉ nói về AI đáng tin cậy mà còn xây dựng các nghĩa vụ theo trường hợp sử dụng và rủi ro (bao gồm cả kỳ vọng về tính minh bạch trong các tình huống cụ thể). [1]

 

Tin tức về quy định AI

Tin tức về quy định AI hôm nay: những câu chuyện thực sự thay đổi danh sách việc cần làm của bạn ✅⚖️

Không phải tiêu đề nào cũng quan trọng. Những câu chuyện quan trọng là những câu chuyện buộc phải thay đổi về sản phẩm , quy trình hoặc hoạt động mua sắm .

1) Các yêu cầu về tính minh bạch và ghi nhãn đang ngày càng khắt khe hơn 🏷️🕵️♂️

Trên khắp các thị trường, “tính minh bạch” ngày càng được coi là công việc của sản phẩm chứ không phải là triết lý. Trong bối cảnh EU, Đạo luật AI bao gồm rõ ràng các nghĩa vụ liên quan đến tính minh bạch đối với một số tương tác hệ thống AI và một số tình huống nội dung tổng hợp hoặc bị thao túng. Điều đó biến thành các mục tồn đọng cụ thể: thông báo UX, mẫu công khai, quy tắc xử lý nội dung và cổng xem xét nội bộ. [1]

Điều này có nghĩa là gì trong thực tế:

  • Một mô hình hiển thị thông tin mà bạn có thể áp dụng nhất quán (không phải là một cửa sổ bật lên dùng một lần mà ai đó quên không dùng lại).

  • Một chính sách về thời điểm cần báo hiệu cho các đầu ra và vị trí đặt tín hiệu đó (giao diện người dùng, siêu dữ liệu, hoặc cả hai).

  • Một kế hoạch để tái sử dụng nội dung đó ở các khâu tiếp theo (vì nội dung của bạn sẽ bị sao chép, chụp màn hình, phối lại… và cuối cùng bị đổ lỗi cho bạn).

2) "Một tiêu chuẩn sạch duy nhất" là một điều hoang đường (vì vậy hãy xây dựng hệ thống quản trị có thể lặp lại) 🇺🇸🧩

Sự phân chia thẩm quyền ngày càng gia tăng sẽ không biến mất, và các phương thức thực thi cũng rất khác nhau. Giải pháp thiết thực là xây dựng một phương pháp quản trị nội bộ có thể lặp lại và áp dụng cho nhiều chế độ pháp lý khác nhau.

Nếu bạn muốn thứ gì đó hoạt động giống như “bộ xếp hình LEGO quản trị”, thì các khung rủi ro sẽ hữu ích. Khung quản lý rủi ro AI của NIST (AI RMF 1.0) được sử dụng rộng rãi như một ngôn ngữ chung để lập bản đồ rủi ro và kiểm soát trên các giai đoạn vòng đời của AI - ngay cả khi nó không được pháp luật quy định. [2]

3) Việc thực thi không chỉ đơn thuần là “các luật AI mới” - mà là luật hiện hành được áp dụng cho AI 🔍⚠️

Rất nhiều vấn đề thực tế phát sinh từ những quy tắc cũ vào hành vi mới : tiếp thị lừa đảo, tuyên bố sai lệch, các trường hợp sử dụng không an toàn và thái độ lạc quan kiểu "chắc chắn nhà cung cấp đã lường trước điều đó".

Ví dụ, Ủy ban Thương mại Liên bang Hoa Kỳ đã thực hiện các hành động rõ ràng nhằm vào các tuyên bố và kế hoạch lừa đảo liên quan đến AI (và đã mô tả các hành động này công khai trong các thông cáo báo chí). Dịch nghĩa: “AI” không tự nhiên miễn trừ bất kỳ ai khỏi việc phải chứng minh các tuyên bố. [4]

4) “Quản trị” đang dần trở thành một hệ thống quản lý có thể chứng nhận được 🧱✅

Ngày càng nhiều tổ chức chuyển từ các "nguyên tắc Trí tuệ nhân tạo có trách nhiệm" không chính thức sang các phương pháp hệ thống quản lý chính thức - loại hệ thống mà bạn có thể vận hành, kiểm toán và cải thiện theo thời gian.

Đó là lý do tại sao các tiêu chuẩn như ISO/IEC 42001:2023 (hệ thống quản lý AI) tiếp tục xuất hiện trong các cuộc thảo luận nghiêm túc: nó được cấu trúc xung quanh việc xây dựng một hệ thống quản lý AI bên trong một tổ chức (chính sách, vai trò, cải tiến liên tục - những thứ nhàm chán giúp ngăn chặn các sự cố). [3]


Điều gì tạo nên một trang tin "Tin tức về quy định AI hôm nay" tốt? 🧭🗞️

Nếu bạn muốn theo dõi các quy định về trí tuệ nhân tạo mà không mất thời gian cuối tuần, một trang thông tin tốt cần có những yếu tố sau:

  • Phân biệt tín hiệu với nhiễu (không phải bài viết phân tích nào cũng thay đổi nghĩa vụ)

  • Liên kết đến các nguồn chính (cơ quan quản lý, tổ chức tiêu chuẩn, tài liệu thực tế)

  • Chuyển thành hành động cụ thể (những thay đổi nào về chính sách, sản phẩm hoặc quy trình mua sắm?)

  • Kết nối các điểm (quy tắc + công cụ + quản trị)

  • thừa nhận sự phức tạp về mặt pháp lý giữa nhiều khu vực (vì thực tế là như vậy)

  • Hãy giữ thái độ thực tế (mẫu, danh sách kiểm tra, ví dụ, theo dõi nhà cung cấp)

Đây cũng là nơi mà vị trí của AI Assistant Store trở nên hợp lý: nó không cố gắng trở thành một cơ sở dữ liệu pháp lý - nó đang cố gắng trở thành một khám phá + thực tiễn để bạn có thể chuyển từ “điều gì đã thay đổi?” sang “chúng ta phải làm gì về điều đó?” nhanh hơn. [5]


Bảng so sánh: Theo dõi tin tức về quy định AI hôm nay (và vẫn giữ tính thực tế) 💸📌

Tùy chọn / “công cụ” Khán giả Lý do tại sao nó hiệu quả (khi nó hiệu quả)
Cửa hàng trợ lý AI đội nhóm + cá nhân Một cách thức được tuyển chọn để duyệt các công cụ AI và nội dung AI ở một nơi, giúp biến “tin tức” thành “các bước tiếp theo” mà không cần mở 37 tab. [5]
Trang của cơ quan quản lý chính bất kỳ ai vận chuyển hàng hóa vào khu vực đó Chậm rãi, khô khan, đầy tính uy quyền . Tuyệt vời khi bạn cần ngôn từ mang tính xác thực cao.
Khung đánh giá rủi ro (phương pháp tiếp cận kiểu NIST) các nhà xây dựng + nhóm quản lý rủi ro Cung cấp một ngôn ngữ kiểm soát chung mà bạn có thể áp dụng trên nhiều khu vực pháp lý (và giải thích cho kiểm toán viên mà không gặp khó khăn). [2]
Tiêu chuẩn hệ thống quản lý (theo tiêu chuẩn ISO) các tổ chức lớn hơn + các nhóm được quản lý Giúp bạn chính thức hóa việc quản trị thành một thứ có thể lặp lại và kiểm toán được (ít mang tính “ủy ban” hơn, nhiều tính “hệ thống” hơn). [3]
tín hiệu thực thi bảo vệ người tiêu dùng sản phẩm + tiếp thị + pháp lý Nhắc nhở các đội rằng các tuyên bố về “AI” vẫn cần bằng chứng; việc thực thi có thể rất thực tế, rất nhanh chóng. [4]

Đúng vậy, bảng này không đều. Đó là điều cố ý. Các đội thực thụ không sống trong một thế giới được sắp xếp hoàn hảo.


Điều tinh vi ở chỗ: tuân thủ không chỉ còn là vấn đề “pháp lý” nữa mà còn là thiết kế sản phẩm 🧑💻🔍

Ngay cả khi bạn có luật sư (hoặc đặc biệt là nếu bạn có luật sư), việc tuân thủ AI thường được chia thành các bước cơ bản có thể lặp lại:

  • Danh mục - những AI nào hiện có, ai sở hữu chúng, và chúng tác động đến những dữ liệu nào.

  • Phân loại rủi ro - rủi ro nào có tác động lớn, ảnh hưởng trực tiếp đến khách hàng hoặc cần đưa ra quyết định tự động?

  • Các biện pháp kiểm soát - ghi nhật ký, giám sát, kiểm thử, quyền riêng tư, bảo mật

  • Tính minh bạch - công bố, khả năng giải thích, các mẫu tín hiệu nội dung (nếu có) [1]

  • Quản trị nhà cung cấp - hợp đồng, thẩm định, xử lý sự cố

  • Giám sát - sự sai lệch, sử dụng sai mục đích, độ tin cậy, thay đổi chính sách

  • Bằng chứng - những hiện vật còn sót lại sau các cuộc kiểm toán và những email giận dữ.

Tôi đã chứng kiến ​​nhiều nhóm viết ra những chính sách tuyệt vời nhưng cuối cùng vẫn chỉ là "hình thức tuân thủ" vì công cụ và quy trình làm việc không phù hợp với chính sách. Nếu không thể đo lường và lặp lại, thì nó không có giá trị thực sự.


Nơi mà AI Assistant Store không còn chỉ là "một trang web" mà trở thành một phần không thể thiếu trong quy trình làm việc của bạn 🛒➡️✅

Đối với các nhóm làm việc tuân thủ nghiêm ngặt các quy định, điều quan trọng là tốc độ đi kèm với sự kiểm soát : giảm thiểu việc tìm kiếm công cụ một cách ngẫu nhiên đồng thời tăng cường việc áp dụng có chủ đích và có thể xem xét lại.

AI Assistant Store tận dụng mô hình tư duy “danh mục + khám phá” đó - duyệt theo danh mục, chọn lọc các công cụ và chuyển chúng qua các bước kiểm tra an ninh/quyền riêng tư/mua sắm nội bộ của bạn thay vì để AI ngầm phát triển trong các kẽ hở. [5]


Một danh sách kiểm tra thực tế "việc cần làm tiếp theo" dành cho các nhóm đang theo dõi Tin tức về Quy định AI hôm nay ✅📋

  1. Lập danh mục AI (hệ thống, chủ sở hữu, nhà cung cấp, loại dữ liệu)

  2. Chọn một khuôn khổ rủi ro để các nhóm có chung một ngôn ngữ (và bạn có thể lập bản đồ các biện pháp kiểm soát một cách nhất quán) [2]

  3. Thêm các biện pháp kiểm soát tính minh bạch khi cần thiết (công bố, tài liệu, mẫu báo hiệu nội dung) [1]

  4. Tăng cường quản trị nhà cung cấp (hợp đồng, kiểm toán, quy trình xử lý sự cố)

  5. Thiết lập các kỳ vọng giám sát (chất lượng, an toàn, sử dụng sai mục đích, sai lệch)

  6. Cung cấp cho các nhóm các tùy chọn an toàn để giảm thiểu AI bóng tối - khám phá được tuyển chọn giúp ích ở đây [5]


Lời kết

Tin tức về quy định AI ngày nay không chỉ xoay quanh các quy tắc mới. Nó còn về tốc độ các quy tắc đó được chuyển thành các câu hỏi về đấu thầu, thay đổi sản phẩm và những khoảnh khắc "cần chứng minh". Những người chiến thắng sẽ không phải là những nhóm có văn bản chính sách dài nhất. Họ sẽ là những người có bằng chứng và quy trình quản trị nhất quán nhất.

Và nếu bạn muốn một trung tâm giúp giảm bớt sự hỗn loạn của các công cụ trong khi bạn thực hiện công việc của người lớn (kiểm soát, đào tạo, tài liệu), thì cảm giác “tất cả dưới một mái nhà” của AI Assistant Store thật… hợp lý đến mức khó chịu. [5]


Tài liệu tham khảo

[1] Văn bản chính thức của EU về Quy định (EU) 2024/1689 (Đạo luật Trí tuệ Nhân tạo) trên EUR-Lex. đọc thêm
[2] Ấn phẩm của NIST (AI 100-1) giới thiệu Khung quản lý rủi ro trí tuệ nhân tạo (AI RMF 1.0) - PDF. đọc thêm
[3] Trang ISO cho ISO/IEC 42001:2023 mô tả tiêu chuẩn hệ thống quản lý AI. đọc thêm
[4] Thông cáo báo chí của FTC (ngày 25 tháng 9 năm 2024) thông báo về việc trấn áp các tuyên bố và kế hoạch lừa đảo liên quan đến AI. đọc thêm
[5] Trang chủ Cửa hàng Trợ lý AI để duyệt các công cụ và tài nguyên AI được tuyển chọn. đọc thêm

Tìm kiếm những công nghệ AI mới nhất tại Cửa hàng Trợ lý AI chính thức

Về chúng tôi

Quay lại blog