Trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh là gì?

Trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh là gì?

Câu trả lời ngắn gọn: Các nhà phát triển sử dụng trí tuệ nhân tạo tạo sinh chịu trách nhiệm cho toàn bộ hệ thống, chứ không chỉ riêng kết quả đầu ra của mô hình. Khi trí tuệ nhân tạo ảnh hưởng đến các quyết định, mã nguồn, quyền riêng tư hoặc lòng tin của người dùng, họ phải lựa chọn các ứng dụng an toàn, xác minh kết quả, bảo vệ dữ liệu, giảm thiểu thiệt hại và đảm bảo mọi người có thể xem xét, ghi đè và sửa chữa sai sót.

Những điểm chính cần ghi nhớ:

Xác minh : Hãy coi các kết quả đã được hoàn thiện là chưa đáng tin cậy cho đến khi các nguồn thông tin, thử nghiệm hoặc đánh giá của con người xác nhận chúng.

Bảo vệ dữ liệu : Giảm thiểu dữ liệu yêu cầu, loại bỏ thông tin nhận dạng và bảo mật nhật ký, kiểm soát truy cập và nhà cung cấp.

Tính công bằng : Kiểm tra trên nhiều nhóm nhân khẩu học và bối cảnh khác nhau để phát hiện các định kiến ​​và mô hình thất bại không đồng đều.

Tính minh bạch : Ghi rõ việc sử dụng AI, giải thích những hạn chế của nó và cho phép xem xét hoặc khiếu nại bởi con người.

Trách nhiệm : Chỉ định rõ người chịu trách nhiệm triển khai, xử lý sự cố, giám sát và khôi phục trước khi ra mắt.

Trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh là gì? (Infographic)

Những bài viết bạn có thể muốn đọc sau bài này:

🔗 Các công cụ AI tốt nhất dành cho nhà phát triển phần mềm: Những trợ lý lập trình hàng đầu được hỗ trợ bởi AI
So sánh các trợ lý lập trình AI hàng đầu để có quy trình phát triển nhanh hơn, hiệu quả hơn.

🔗 Top 10 công cụ AI giúp tăng năng suất cho nhà phát triển
Danh sách xếp hạng các công cụ AI dành cho nhà phát triển giúp lập trình thông minh hơn và nhanh hơn.

🔗 Vì sao trí tuệ nhân tạo có thể gây hại cho xã hội và lòng tin
Giải thích những tác hại trong thế giới thực: thiên kiến, quyền riêng tư, việc làm và rủi ro thông tin sai lệch.

🔗 Liệu trí tuệ nhân tạo đã đi quá xa trong việc đưa ra các quyết định quan trọng?
Xác định khi nào trí tuệ nhân tạo vượt quá giới hạn: giám sát, deepfake, thuyết phục, không có sự đồng ý.

Vì sao trách nhiệm của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh lại quan trọng hơn mọi người nghĩ?

Rất nhiều lỗi phần mềm gây khó chịu. Một nút bị hỏng. Một trang tải chậm. Một thứ gì đó bị sập và mọi người đều rên rỉ.

Các bài toán về Trí tuệ nhân tạo tạo sinh có thể khác nhau. Chúng có thể rất tinh tế.

Một mô hình có thể nghe có vẻ tự tin trong khi thực tế lại sai. (NIST GenAI Profile) Nó có thể tái tạo sự thiên vị mà không có dấu hiệu cảnh báo rõ ràng. (NIST GenAI Profile) Nó có thể làm lộ dữ liệu nhạy cảm nếu sử dụng bất cẩn. (OWASP Top 10 for LLM Applications) Tám câu hỏi của ICO về trí tuệ nhân tạo tạo sinh Nó có thể tạo ra mã hoạt động - cho đến khi nó gặp lỗi trong quá trình sản xuất theo một cách vô cùng đáng xấu hổ. (OWASP Top 10 for LLM Applications) Giống như việc thuê một thực tập sinh rất nhiệt tình, không bao giờ ngủ và thỉnh thoảng bịa ra những sự thật với sự tự tin đáng kinh ngạc.

Đó là lý do tại sao trách nhiệm của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh lớn hơn việc chỉ đơn thuần triển khai. Các nhà phát triển không còn chỉ xây dựng các hệ thống logic nữa. Họ đang xây dựng các hệ thống xác suất với các ranh giới không rõ ràng, đầu ra khó dự đoán và hậu quả xã hội thực tế. (NIST AI RMF)

Điều đó có nghĩa là trách nhiệm bao gồm:

Bạn biết đấy, khi một công cụ nào đó mang lại cảm giác kỳ diệu, mọi người sẽ ngừng đặt câu hỏi về nó. Các nhà phát triển không thể nào chủ quan như vậy được.

Điều gì tạo nên một phiên bản tốt về trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh? 🛠️

Trách nhiệm thực sự không phải là hình thức. Nó không chỉ đơn thuần là thêm một lời tuyên bố miễn trừ trách nhiệm ở cuối và gọi đó là đạo đức. Nó thể hiện qua các lựa chọn thiết kế, thói quen thử nghiệm và hành vi của sản phẩm.

Đây là một ví dụ điển hình về trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh :

Nếu điều đó nghe có vẻ nhiều, thì đúng là vậy. Nhưng đó là điều không thể tránh khỏi khi bạn làm việc với công nghệ có thể tác động đến các quyết định, niềm tin và hành vi trên quy mô lớn. Nguyên tắc Trí tuệ Nhân tạo của OECD

Bảng so sánh - Tóm tắt trách nhiệm cốt lõi của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh 📋

Khu vực trách nhiệm Ai bị ảnh hưởng? Thực hành lập trình viên hàng ngày Tại sao điều đó lại quan trọng
Độ chính xác và xác minh người dùng, nhóm, khách hàng Xem xét lại kết quả đầu ra, thêm các lớp xác thực, kiểm tra các trường hợp ngoại lệ Trí tuệ nhân tạo (AI) có thể hoạt động trôi chảy nhưng vẫn mắc sai lầm nghiêm trọng - đó là một sự kết hợp khó lường ( theo Hồ sơ GenAI của NIST).
Bảo vệ quyền riêng tư người dùng, khách hàng, nhân viên nội bộ Giảm thiểu việc sử dụng dữ liệu nhạy cảm, lọc thông báo nhắc nhở, kiểm soát nhật ký Một khi dữ liệu cá nhân bị rò rỉ, thì mọi chuyện đã vỡ lở rồi 😬 Tám câu hỏi của ICO dành cho trí tuệ nhân tạo tạo sinh OWASP Top 10 cho hồ sơ ứng tuyển chương trình Thạc sĩ Luật (LLM)
Thiên kiến ​​và sự công bằng các nhóm thiểu số, tất cả người dùng thực sự Kiểm toán kết quả đầu ra, thử nghiệm các đầu vào đa dạng, tinh chỉnh các biện pháp bảo vệ Tác hại không phải lúc nào cũng ồn ào - đôi khi nó mang tính hệ thống và âm thầm. của NIST GenAI Profile và ICO về bảo vệ dữ liệu.
Bảo vệ hệ thống công ty, người dùng Hạn chế quyền truy cập mô hình, phòng chống tấn công chèn mã độc tức thời, thiết lập môi trường thử nghiệm cho các hành động rủi ro Một thủ đoạn tinh vi có thể nhanh chóng phá hủy lòng tin. OWASP Top 10 cho các ứng dụng LLM. NCSC về Trí tuệ nhân tạo và an ninh mạng.
Tính minh bạch người dùng cuối, cơ quan quản lý, nhóm hỗ trợ Ghi chú rõ ràng về hành vi của AI, giải thích các giới hạn và ghi lại cách sử dụng Mọi người có quyền được biết khi nào máy móc đang hỗ trợ họ. Bộ quy tắc thực hành về đánh dấu và dán nhãn nội dung do AI tạo ra theo Nguyên tắc AI của OECD.
Trách nhiệm giải trình chủ sở hữu sản phẩm, pháp lý, nhóm phát triển Xác định quyền sở hữu, xử lý sự cố và các lộ trình leo thang “Trí tuệ nhân tạo đã làm điều đó” không phải là câu trả lời chín chắn. Nguyên tắc về trí tuệ nhân tạo của OECD.
Độ tin cậy mọi người chạm vào sản phẩm Giám sát các lỗi, thiết lập ngưỡng tin cậy, tạo logic dự phòng Các mô hình có thể bị sai lệch, gặp trục trặc theo những cách không ngờ tới, và thỉnh thoảng xảy ra những sự cố nhỏ đầy kịch tính. Hướng dẫn về AI an toàn của NIST AI RMF
Sức khỏe người dùng đặc biệt là người dùng dễ bị tổn thương Tránh thiết kế mang tính thao túng, hạn chế các kết quả đầu ra có hại, xem xét kỹ các trường hợp sử dụng có rủi ro cao Chỉ vì một thứ gì đó có thể được tạo ra không có nghĩa là nó nên được tạo ra. Nguyên tắc AI của OECD, Khung quản lý rủi ro AI của NIST.

Chiếc bàn có vẻ hơi không đều, nhưng điều đó lại phù hợp với chủ đề. Trách nhiệm thực sự cũng không đồng đều.

Trách nhiệm bắt đầu trước cả khi có lời nhắc đầu tiên - lựa chọn trường hợp sử dụng phù hợp 🎯

Một trong những trách nhiệm lớn nhất của các nhà phát triển là quyết định xem có nên sử dụng trí tuệ nhân tạo tạo sinh hay không . (NIST AI RMF)

Điều đó nghe có vẻ hiển nhiên, nhưng lại thường xuyên bị bỏ qua. Các nhóm nhìn thấy một mô hình, hào hứng và bắt đầu áp đặt nó vào các quy trình làm việc mà lẽ ra nên được xử lý bằng các quy tắc, tìm kiếm hoặc logic phần mềm thông thường. Không phải mọi vấn đề đều cần một mô hình ngôn ngữ. Một số vấn đề cần cơ sở dữ liệu và một buổi chiều yên tĩnh.

Trước khi bắt đầu xây dựng, các nhà phát triển nên đặt ra những câu hỏi sau:

Một nhà phát triển có trách nhiệm không chỉ hỏi, “Chúng ta có thể xây dựng cái này không?” Mà còn hỏi, “Nó có nên được xây dựng theo cách này không?” NIST AI RMF

Chỉ riêng câu hỏi đó thôi đã giúp ngăn chặn rất nhiều điều hào nhoáng vô nghĩa.

Tính chính xác là một trách nhiệm, chứ không phải là một tính năng bổ sung ✅

Hãy nói rõ ràng - một trong những cạm bẫy lớn nhất trong trí tuệ nhân tạo tạo sinh là nhầm lẫn giữa sự hùng biện và sự thật. Các mô hình thường đưa ra những câu trả lời nghe có vẻ trau chuốt, có cấu trúc và vô cùng thuyết phục. Điều đó thật tuyệt vời, cho đến khi nội dung lại là những điều vô nghĩa được bao bọc bởi sự tự tin. (NIST GenAI Profile)

Vì vậy, trách nhiệm của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh bao gồm việc xây dựng quy trình để kiểm chứng.

Điều đó có nghĩa là:

Điều này rất quan trọng trong các lĩnh vực như:

  • chăm sóc sức khỏe

  • tài chính

  • quy trình pháp lý

  • giáo dục

  • hỗ trợ khách hàng

  • tự động hóa doanh nghiệp

  • tạo mã

Ví dụ, mã được tạo tự động có thể trông gọn gàng nhưng lại che giấu các lỗ hổng bảo mật hoặc lỗi logic. Một nhà phát triển sao chép mã đó một cách mù quáng sẽ không hiệu quả - họ chỉ đơn giản là đang chuyển giao rủi ro dưới một hình thức đẹp mắt hơn. (OWASP Top 10 for LLM Applications NCSC on AI and cyber security)

Mô hình có thể hỗ trợ. Nhà phát triển vẫn sở hữu kết quả. Nguyên tắc Trí tuệ Nhân tạo của OECD

Bảo mật thông tin và quản lý dữ liệu là điều không thể thỏa hiệp 🔐

Đây là lúc mọi chuyện trở nên nghiêm trọng nhanh chóng. Các hệ thống AI tạo sinh thường dựa vào các lời nhắc, nhật ký, cửa sổ ngữ cảnh, lớp bộ nhớ, phân tích và cơ sở hạ tầng của bên thứ ba. Điều đó tạo ra rất nhiều cơ hội cho dữ liệu nhạy cảm bị rò rỉ, tồn tại lâu dài hoặc được sử dụng lại theo những cách mà người dùng không bao giờ ngờ tới. Tám câu hỏi của ICO dành cho AI tạo sinh OWASP Top 10 cho các ứng dụng LLM

Các nhà phát triển có trách nhiệm bảo vệ:

  • thông tin cá nhân

  • hồ sơ tài chính

  • thông tin y tế

  • dữ liệu nội bộ công ty

  • bí mật thương mại

  • mã thông báo xác thực

  • giao tiếp với khách hàng

Các hành vi có trách nhiệm bao gồm:

Đây là một trong những trường hợp mà việc "quên nghĩ đến điều đó" không phải là một sai lầm nhỏ. Đó là một thất bại làm phá vỡ lòng tin.

Và niềm tin, một khi đã bị phá vỡ, sẽ lan rộng như mảnh kính vỡ. Có lẽ đây không phải là phép ẩn dụ hay nhất, nhưng bạn hiểu ý tôi chứ.

Thiên kiến, công bằng và sự đại diện - những trách nhiệm thầm lặng ⚖️

Thiên kiến ​​trong trí tuệ nhân tạo tạo sinh hiếm khi là một nhân vật phản diện trong phim hoạt hình. Nó thường khó nhận biết hơn thế. Một mô hình có thể tạo ra các mô tả công việc rập khuôn, các quyết định kiểm duyệt không đồng đều, các đề xuất lệch lạc hoặc các giả định hạn hẹp về văn hóa mà không gây ra cảnh báo rõ ràng. (NIST GenAI Profile)

Đó là lý do tại sao trách nhiệm của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh bao gồm cả việc chủ động thực hiện công tác đảm bảo tính công bằng.

Các nhà phát triển nên:

Một hệ thống có thể hoạt động tốt nhìn chung nhưng lại liên tục phục vụ một số người dùng kém hơn những người khác. Điều đó không thể chấp nhận được chỉ vì hiệu suất trung bình trông đẹp mắt trên bảng điều khiển. Hướng dẫn của ICO về AI và bảo vệ dữ liệu Hồ sơ NIST GenAI

Và đúng vậy, sự công bằng khó hơn một danh sách kiểm tra gọn gàng. Nó bao gồm sự phán xét. Bối cảnh. Sự đánh đổi. Và cả một mức độ khó chịu nữa. Nhưng điều đó không xóa bỏ trách nhiệm - mà nó càng khẳng định trách nhiệm đó. Hướng dẫn của ICO về AI và bảo vệ dữ liệu

An ninh giờ đây vừa là sự kết hợp giữa thiết kế nhanh chóng, vừa là một phần của kỷ luật kỹ thuật 🧱

Bảo mật AI tạo sinh là một vấn đề đặc thù. Bảo mật ứng dụng truyền thống vẫn rất quan trọng, nhưng các hệ thống AI bổ sung thêm các bề mặt tấn công bất thường: chèn thông báo nhắc nhở, thao tác thông báo nhắc nhở gián tiếp, sử dụng công cụ không an toàn, đánh cắp dữ liệu thông qua ngữ cảnh và lạm dụng mô hình thông qua quy trình làm việc tự động. (OWASP Top 10 for LLM Applications NCSC on AI and cyber security)

Các nhà phát triển chịu trách nhiệm bảo mật toàn bộ hệ thống, chứ không chỉ giao diện. (Hướng dẫn về bảo mật AI của NCSC)

Các trách nhiệm chính ở đây bao gồm:

Một sự thật khó chịu là người dùng - và cả những kẻ tấn công - chắc chắn sẽ thử những điều mà nhà phát triển không ngờ tới. Một số vì tò mò, một số vì ác ý, một số vì họ đã nhấp nhầm vào lúc 2 giờ sáng. Chuyện này thường xảy ra.

Bảo mật cho trí tuệ nhân tạo tạo sinh không giống như việc xây một bức tường mà giống hơn việc quản lý một người gác cổng rất lắm lời, người đôi khi bị đánh lừa bởi cách diễn đạt.

Tính minh bạch và sự đồng thuận của người dùng quan trọng hơn trải nghiệm người dùng hào nhoáng 🗣️

Khi người dùng tương tác với AI, họ cần phải biết điều đó. Bộ quy tắc thực hành về đánh dấu và dán nhãn nội dung do AI tạo ra theo Nguyên tắc AI của OECD.

Không mơ hồ. Không bị che giấu bằng thuật ngữ. Rõ ràng.

Một phần cốt lõi trong trách nhiệm của các nhà phát triển sử dụng Trí tuệ nhân tạo tạo sinh là đảm bảo người dùng hiểu được:

Tính minh bạch không phải là để dọa người dùng, mà là để tôn trọng họ.

Sự minh bạch tốt có thể bao gồm:

Nhiều nhóm phát triển sản phẩm lo ngại rằng sự trung thực sẽ khiến tính năng đó bớt kỳ diệu hơn. Có thể. Nhưng sự chắc chắn giả tạo còn tệ hơn. Một giao diện mượt mà nhưng che giấu rủi ro về cơ bản là sự nhầm lẫn được trau chuốt.

Các nhà phát triển vẫn phải chịu trách nhiệm - ngay cả khi mô hình "quyết định" 👀

Phần này vô cùng quan trọng. Trách nhiệm không thể được chuyển giao cho nhà cung cấp mô hình, thẻ mô hình, mẫu nhắc nhở, hay bầu không khí bí ẩn của máy học. Nguyên tắc AI của OECD Khung quản lý rủi ro AI của NIST.

Các nhà phát triển vẫn phải chịu trách nhiệm. Nguyên tắc AI của OECD.

Điều đó có nghĩa là một người trong nhóm nên chịu trách nhiệm:

Cần có câu trả lời rõ ràng cho những câu hỏi như:

Nếu thiếu người chịu trách nhiệm, trách nhiệm sẽ trở nên mơ hồ. Ai cũng cho rằng người khác đang gánh vác... nhưng rồi thực tế chẳng ai làm cả.

Thực tế, mô hình đó còn lâu đời hơn cả trí tuệ nhân tạo. Trí tuệ nhân tạo chỉ làm cho nó trở nên nguy hiểm hơn mà thôi.

Các nhà phát triển có trách nhiệm xây dựng dựa trên khả năng sửa lỗi, chứ không phải sự hoàn hảo 🔄

Điểm mấu chốt ở đây là: phát triển trí tuệ nhân tạo có trách nhiệm không phải là giả vờ rằng hệ thống sẽ hoàn hảo. Mà là giả định rằng nó sẽ gặp lỗi ở một số khía cạnh và thiết kế hệ thống dựa trên thực tế đó. (NIST AI RMF)

Điều đó có nghĩa là xây dựng các sản phẩm đáp ứng các tiêu chí sau:

Đây mới là hình ảnh của sự trưởng thành. Không phải những bản demo hào nhoáng. Không phải những lời quảng cáo hoa mỹ. Mà là những hệ thống thực sự, với các biện pháp bảo vệ, nhật ký hoạt động, trách nhiệm giải trình và đủ sự khiêm tốn để thừa nhận rằng máy móc không phải là một phù thủy. Nguyên tắc AI an toàn của NCSC và Nguyên tắc AI của OECD.

Bởi vì nó không phải vậy. Nó là một công cụ. Một công cụ mạnh mẽ, đúng vậy. Nhưng vẫn chỉ là một công cụ.

Lời kết về trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh 🌍

trách nhiệm của các nhà phát triển khi sử dụng Trí tuệ nhân tạo tạo sinh là gì ?

Xây dựng một cách cẩn trọng. Đặt câu hỏi về việc hệ thống giúp ích ở đâu và gây hại ở đâu. Bảo vệ quyền riêng tư. Kiểm tra tính thiên vị. Xác minh kết quả đầu ra. Bảo mật quy trình làm việc. Minh bạch với người dùng. Giữ cho con người có vai trò kiểm soát có ý nghĩa. Chịu trách nhiệm khi xảy ra sự cố. (NIST AI RMF OECD AI Principles)

Điều đó nghe có vẻ nặng nề - và đúng là vậy. Nhưng đó cũng chính là điều phân biệt quá trình phát triển có suy nghĩ thấu đáo với việc tự động hóa một cách thiếu thận trọng.

Những nhà phát triển giỏi nhất sử dụng trí tuệ nhân tạo tạo sinh không phải là những người khiến mô hình thực hiện được nhiều thủ thuật nhất. Họ là những người hiểu được hậu quả của những thủ thuật đó và thiết kế cho phù hợp. Họ biết tốc độ rất quan trọng, nhưng sự tin tưởng mới là sản phẩm thực sự. Điều kỳ lạ là, ý tưởng lỗi thời đó vẫn còn đúng cho đến ngày nay. NIST AI RMF

Cuối cùng, trách nhiệm không phải là rào cản đối với sự đổi mới. Chính trách nhiệm mới là điều giúp sự đổi mới không biến thành một mớ hỗn độn tốn kém, với giao diện bóng bẩy nhưng lại thiếu tự tin 😬✨

Và có lẽ đó là phiên bản đơn giản nhất của nó.

Hãy xây dựng một cách táo bạo, điều đó chắc chắn rồi - nhưng hãy xây dựng như thể nó có thể ảnh hưởng đến con người, bởi vì thực tế là họ đang bị ảnh hưởng. Nguyên tắc Trí tuệ Nhân tạo của OECD

Câu hỏi thường gặp

Trách nhiệm của các nhà phát triển khi sử dụng trí tuệ nhân tạo tạo sinh trong thực tế là gì?

Trách nhiệm của các nhà phát triển sử dụng trí tuệ nhân tạo tạo sinh không chỉ dừng lại ở việc nhanh chóng đưa ra các tính năng. Nó bao gồm việc lựa chọn trường hợp sử dụng phù hợp, kiểm tra kết quả đầu ra, bảo vệ quyền riêng tư, giảm thiểu hành vi gây hại và làm cho hệ thống dễ hiểu đối với người dùng. Trên thực tế, các nhà phát triển vẫn chịu trách nhiệm về cách thức thiết kế, giám sát, sửa chữa và quản lý công cụ khi nó gặp sự cố.

Tại sao trí tuệ nhân tạo tạo sinh cần nhiều trách nhiệm hơn từ phía nhà phát triển so với phần mềm thông thường?

Các lỗi truyền thống thường dễ nhận biết, nhưng những lỗi của trí tuệ nhân tạo tạo sinh có thể nghe có vẻ hoàn hảo trong khi vẫn sai, thiên vị hoặc tiềm ẩn rủi ro. Điều đó khiến các vấn đề khó phát hiện hơn và người dùng dễ tin tưởng nhầm lẫn. Các nhà phát triển đang làm việc với các hệ thống xác suất, vì vậy trách nhiệm bao gồm xử lý sự không chắc chắn, hạn chế thiệt hại và chuẩn bị cho các kết quả không thể đoán trước trước khi ra mắt.

Làm sao các nhà phát triển biết khi nào không nên sử dụng trí tuệ nhân tạo tạo sinh?

Điểm khởi đầu phổ biến là đặt câu hỏi liệu nhiệm vụ đó có phải là nhiệm vụ mở hay được xử lý tốt hơn bằng các quy tắc, tìm kiếm hoặc logic phần mềm tiêu chuẩn. Các nhà phát triển cũng nên xem xét mức độ thiệt hại mà một câu trả lời sai có thể gây ra và liệu con người có thể đánh giá kết quả một cách thực tế hay không. Sử dụng có trách nhiệm đôi khi có nghĩa là quyết định không sử dụng trí tuệ nhân tạo tạo sinh.

Làm thế nào các nhà phát triển có thể giảm thiểu ảo giác và câu trả lời sai trong các hệ thống trí tuệ nhân tạo tạo sinh?

Độ chính xác cần được thiết kế ngay từ đầu, chứ không phải là điều hiển nhiên. Trong nhiều quy trình, điều đó có nghĩa là dựa trên các nguồn đáng tin cậy để đưa ra kết quả đầu ra, tách biệt văn bản được tạo tự động khỏi các thông tin đã được xác minh, và sử dụng quy trình xem xét lại cho các tác vụ có rủi ro cao hơn. Các nhà phát triển cũng nên kiểm tra các câu hỏi được thiết kế để gây nhầm lẫn hoặc đánh lừa hệ thống, đặc biệt là trong các lĩnh vực như lập trình, hỗ trợ, tài chính, giáo dục và chăm sóc sức khỏe.

Trách nhiệm của các nhà phát triển sử dụng trí tuệ nhân tạo tạo sinh đối với quyền riêng tư và dữ liệu nhạy cảm là gì?

Trách nhiệm của các nhà phát triển sử dụng trí tuệ nhân tạo tạo sinh bao gồm việc giảm thiểu lượng dữ liệu đưa vào mô hình và coi các lời nhắc, nhật ký và đầu ra là dữ liệu nhạy cảm. Các nhà phát triển nên loại bỏ các định danh nếu có thể, giới hạn thời gian lưu trữ, kiểm soát quyền truy cập và xem xét kỹ lưỡng các cài đặt của nhà cung cấp. Người dùng cũng nên hiểu cách dữ liệu của họ được xử lý, thay vì phát hiện ra rủi ro sau này.

Các nhà phát triển nên xử lý vấn đề thiên vị và công bằng trong các sản phẩm trí tuệ nhân tạo tạo sinh như thế nào?

Việc xử lý thiên kiến ​​đòi hỏi sự đánh giá chủ động, chứ không phải giả định. Một cách tiếp cận thực tế là thử nghiệm các câu hỏi gợi ý trên các nhóm nhân khẩu học, ngôn ngữ và bối cảnh khác nhau, sau đó xem xét kết quả để tìm ra các định kiến, sự loại trừ hoặc các mô hình thất bại không đồng đều. Các nhà phát triển cũng nên tạo ra các cách để người dùng hoặc nhóm báo cáo hành vi gây hại, bởi vì một hệ thống có thể trông mạnh mẽ về tổng thể nhưng vẫn liên tục gây thất vọng cho một số nhóm nhất định.

Các nhà phát triển cần cân nhắc những rủi ro bảo mật nào khi sử dụng trí tuệ nhân tạo tạo sinh?

Trí tuệ nhân tạo tạo sinh (Generative AI) mở ra những bề mặt tấn công mới, bao gồm việc chèn mã độc vào lời nhắc, sử dụng công cụ không an toàn, rò rỉ dữ liệu thông qua ngữ cảnh và lạm dụng các hành động tự động. Các nhà phát triển nên lọc bỏ dữ liệu đầu vào không đáng tin cậy, hạn chế quyền truy cập công cụ, giới hạn quyền truy cập tệp và mạng, và giám sát các mô hình lạm dụng. Bảo mật không chỉ liên quan đến giao diện; nó áp dụng cho toàn bộ quy trình làm việc xung quanh mô hình.

Tại sao tính minh bạch lại quan trọng khi xây dựng bằng trí tuệ nhân tạo tạo sinh?

Người dùng cần biết rõ khi nào trí tuệ nhân tạo (AI) được sử dụng, AI có thể làm gì và giới hạn của nó ở đâu. Sự minh bạch tốt có thể bao gồm các nhãn như "được tạo bởi AI" hoặc "được hỗ trợ bởi AI", các giải thích đơn giản và các kênh rõ ràng để liên hệ với bộ phận hỗ trợ của con người. Sự thẳng thắn đó không làm suy yếu sản phẩm; nó giúp người dùng đánh giá mức độ tin tưởng và đưa ra quyết định tốt hơn.

Ai chịu trách nhiệm khi một tính năng trí tuệ nhân tạo tạo sinh gây ra thiệt hại hoặc mắc lỗi?

Các nhà phát triển và nhóm sản phẩm vẫn chịu trách nhiệm về kết quả, ngay cả khi mô hình đưa ra câu trả lời. Điều đó có nghĩa là cần có sự phân định rõ ràng trách nhiệm đối với việc phê duyệt triển khai, xử lý sự cố, hoàn tác, giám sát và truyền đạt thông tin cho người dùng. Câu nói "Mô hình đã quyết định" là chưa đủ, bởi vì trách nhiệm giải trình vẫn phải thuộc về những người đã thiết kế và triển khai hệ thống.

Quá trình phát triển trí tuệ nhân tạo tạo sinh có trách nhiệm sẽ như thế nào sau khi ra mắt?

Quá trình phát triển có trách nhiệm tiếp tục sau khi phát hành thông qua việc giám sát, phản hồi, xem xét và sửa lỗi. Các hệ thống mạnh mẽ phải có khả năng kiểm toán, gián đoạn, phục hồi và được thiết kế với các phương án dự phòng khi trí tuệ nhân tạo gặp sự cố. Mục tiêu không phải là sự hoàn hảo; mà là xây dựng một thứ gì đó có thể được kiểm tra, cải thiện và điều chỉnh một cách an toàn khi các vấn đề thực tế xuất hiện.

Tài liệu tham khảo

  1. Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) - Hồ sơ NIST GenAI - nvlpubs.nist.gov

  2. OWASP - Top 10 ứng viên LLM hàng đầu của OWASP - owasp.org

  3. Văn phòng Ủy viên Thông tin (ICO) - Tám câu hỏi của ICO dành cho trí tuệ nhân tạo tạo sinh - ico.org.uk

Tìm kiếm những công nghệ AI mới nhất tại Cửa hàng Trợ lý AI chính thức

Về chúng tôi

Quay lại blog