🧬 DeepMind ra mắt AlphaGenome để phát hiện các yếu tố di truyền gây bệnh ↗
DeepMind đã ra mắt AlphaGenome, một hệ thống trí tuệ nhân tạo nhằm dự đoán cách các đột biến DNA làm thay đổi quá trình điều hòa gen - về cơ bản là khi nào gen được kích hoạt, ở đâu và mức độ mạnh yếu như thế nào. Nó có thể quét những đoạn DNA khổng lồ cùng một lúc, bao gồm cả các vùng không mã hóa rộng lớn thường giống như vật chất tối sinh học.
Ý tưởng khá đơn giản: giúp xác định nhanh hơn những đột biến nào thực sự quan trọng đối với các yếu tố như nguy cơ ung thư và các bệnh di truyền phức tạp. Nếu nó hoạt động như quảng cáo, các nhà nghiên cứu sẽ dành ít thời gian hơn để phỏng đoán và nhiều thời gian hơn để thử nghiệm những thứ đúng đắn - điều này nghe có vẻ hiển nhiên, nhưng đó chính là toàn bộ vấn đề.
🧑💼 Liz Kendall thừa nhận trí tuệ nhân tạo sẽ khiến nhiều người mất việc ↗
Bộ trưởng Công nghệ Anh đã thẳng thắn nói rằng việc ứng dụng trí tuệ nhân tạo sẽ gây ra tình trạng mất việc làm - chứ không phải kiểu nói thông thường "mọi chuyện sẽ ổn thôi, tôi hứa đấy". Bà chỉ ra những lo ngại xung quanh các vị trí dành cho sinh viên mới tốt nghiệp trong các lĩnh vực như luật và tài chính, và không hề nói rằng có một con số cụ thể nào mà ai cũng có thể đảm bảo.
Đồng thời, chính phủ đang tập trung mạnh vào việc thích ứng: một nỗ lực lớn để đào tạo hàng triệu công nhân về các kỹ năng AI cơ bản, nhằm mục đích đưa Vương quốc Anh trở thành quốc gia áp dụng AI nhanh hơn. Đó là sự căng thẳng kinh điển - đúng là sẽ có việc làm mất đi, đúng là sẽ có việc làm xuất hiện, nhưng quá trình chuyển đổi sẽ không hề suôn sẻ.
🗞️ Anh thúc đẩy Google cho phép các trang web từ chối sử dụng trí tuệ nhân tạo (AI) - Tổng quan ↗
Các cơ quan quản lý cạnh tranh của Anh đã đề xuất những thay đổi cho phép các nhà xuất bản lựa chọn không cho phép nội dung của họ được sử dụng cho Google AI Overviews - hoặc để huấn luyện các mô hình AI độc lập - mà không bị ảnh hưởng đến thứ hạng tìm kiếm thông thường. Cụm từ "mà không bị ảnh hưởng" ở đây mang ý nghĩa rất quan trọng.
Ý tưởng là tái cân bằng quyền lực khi các bản tóm tắt của AI định hình lại cách mọi người nhấp chuột (hoặc không nhấp chuột). Phản hồi của Google về cơ bản là: hành vi tìm kiếm đang thay đổi, chúng tôi đang xem xét thêm các biện pháp kiểm soát, nhưng đừng chia nhỏ sản phẩm thành một phiên bản rời rạc khó sử dụng… điều này thì hợp lý, nhưng cũng khá tiện lợi.
🛡️ Bảo vệ dữ liệu của bạn khi tác nhân AI nhấp vào liên kết ↗
OpenAI đã nêu chi tiết một rủi ro bảo mật cụ thể đối với tác nhân AI: rò rỉ dữ liệu dựa trên URL - trong đó kẻ tấn công lừa AI tải một URL mà âm thầm nhúng thông tin riêng tư vào chuỗi truy vấn. Ngay cả khi mô hình không bao giờ "tiết lộ" bí mật đó, chính yêu cầu truy vấn cũng có thể làm rò rỉ thông tin. Thật nguy hiểm, và kỹ thuật này lại khá thô sơ.
Biện pháp giảm thiểu rủi ro của họ rất đơn giản, nhưng có những điểm mạnh: các tác nhân chỉ nên tự động tìm nạp các URL đã được công khai và được xác nhận tồn tại thông qua một chỉ mục web độc lập. Nếu một liên kết chưa được xác minh là công khai, hệ thống nên làm chậm quá trình và trao lại quyền kiểm soát cho người dùng bằng các cảnh báo - một sự cản trở có chủ đích, nhưng là loại cản trở tốt.
🇪🇺 Chương tiếp theo của trí tuệ nhân tạo tại EU ↗
OpenAI đã công bố một kế hoạch chi tiết tập trung vào EU, nêu bật vấn đề "dư thừa năng lực" - các mô hình có thể làm được nhiều việc hơn những gì người dùng và doanh nghiệp hiện đang sử dụng, và khoảng cách này có nguy cơ dẫn đến sự phát triển không đồng đều giữa các quốc gia. Điều này giống như việc sở hữu một chiếc xe đua nhưng chỉ lái nó đến cửa hàng tạp hóa gần nhà… chỉ khác là toàn bộ nền kinh tế của bạn nằm ở cửa hàng tạp hóa đó.
Bên cạnh những lời lẽ hoa mỹ, còn có những hành động cụ thể: một chương trình nhằm đào tạo hàng nghìn doanh nghiệp vừa và nhỏ của châu Âu về kỹ năng trí tuệ nhân tạo, một khoản tài trợ gắn liền với nghiên cứu về an toàn và phúc lợi của thanh thiếu niên, và một lập trường mở rộng hơn về việc “hợp tác với chính phủ”. Đó vừa là bản ghi nhớ chính sách, vừa là chiến dịch vận động áp dụng - và đúng vậy, hai điều đó khá mơ hồ.
🔐 Rủi ro AI gặp gỡ quản trị an ninh mạng: Bản dự thảo hồ sơ AI an ninh mạng của NIST ↗
Một bản dự thảo hồ sơ mới từ NIST (thông qua phân tích từ một bài viết của công ty luật) tập trung vào cách các tổ chức nên tích hợp trí tuệ nhân tạo (AI) vào quản trị an ninh mạng - cả việc bảo mật các hệ thống AI và sử dụng AI để cải thiện khả năng phòng thủ mạng. Trên lý thuyết thì đây là việc tự nguyện, nhưng theo thời gian, "tự nguyện" lại trở thành điều được mong đợi.
Các nhóm dự thảo tập trung vào các chủ đề như bảo mật các thành phần AI và triển khai phòng thủ dựa trên AI - bao gồm cả các vấn đề về chuỗi cung ứng và tự động hóa kiểu tác nhân trong quy trình phản hồi. Ý tưởng chung là: hãy coi AI vừa là một bề mặt tấn công mới vừa là một bộ công cụ mới, và đừng cho rằng chúng triệt tiêu lẫn nhau.
Câu hỏi thường gặp
AlphaGenome của DeepMind là gì và nó đang cố gắng giải quyết vấn đề gì?
AlphaGenome là một hệ thống trí tuệ nhân tạo mà DeepMind cho biết có thể dự đoán cách các đột biến DNA ảnh hưởng đến sự điều hòa gen - khi nào gen được kích hoạt, ở đâu và mức độ mạnh mẽ như thế nào. Nó được xây dựng để quét các đoạn DNA rất dài cùng một lúc, bao gồm cả các vùng không mã hóa vốn rất khó giải thích. Mục tiêu là giúp các nhà nghiên cứu phát hiện ra những đột biến nào có khả năng gây bệnh cao nhất, để việc thử nghiệm trong phòng thí nghiệm có thể tập trung vào những hướng đi triển vọng nhất.
AlphaGenome có thể giúp các nhà nghiên cứu tìm ra các yếu tố di truyền gây bệnh nhanh hơn như thế nào?
Trong nhiều quy trình nghiên cứu di truyền, điểm nghẽn nằm ở việc thu hẹp danh sách biến thể khổng lồ xuống còn một vài biến thể có khả năng thay đổi hoạt động của gen. AlphaGenome hứa hẹn sẽ giảm bớt sự phỏng đoán đó bằng cách dự đoán các đột biến cụ thể có thể làm thay đổi sự điều hòa trên các chuỗi DNA dài như thế nào. Nếu những dự đoán đó chính xác, các nhóm nghiên cứu có thể ưu tiên các thí nghiệm xung quanh các biến thể có nhiều khả năng liên quan đến nguy cơ ung thư hoặc các bệnh di truyền phức tạp, dành ít thời gian hơn cho những hướng đi bế tắc.
Việc ứng dụng AI có thực sự gây mất việc làm ở Anh không, và những vị trí nào có nguy cơ cao nhất?
Bộ trưởng Công nghệ Anh, Liz Kendall, cho biết việc ứng dụng trí tuệ nhân tạo (AI) sẽ gây ra tình trạng mất việc làm và nhấn mạnh sự lo ngại về các vị trí dành cho sinh viên mới tốt nghiệp. Bà đặc biệt chỉ ra các lĩnh vực như luật và tài chính, nơi các nhiệm vụ ban đầu trong nghề có thể dễ dàng được tự động hóa hơn. Đồng thời, chính phủ đang nhấn mạnh việc thích ứng thông qua đào tạo quy mô lớn về các kỹ năng AI cơ bản, thừa nhận rằng quá trình chuyển đổi có thể diễn ra không đồng đều ngay cả khi các vai trò mới xuất hiện.
Liệu các nhà xuất bản tại Anh có thể từ chối tham gia vào tính năng Tổng quan AI của Google mà không bị mất thứ hạng tìm kiếm không?
Các cơ quan quản lý cạnh tranh của Anh đã đề xuất những thay đổi cho phép các nhà xuất bản lựa chọn không cho phép nội dung của họ được sử dụng cho các bản tóm tắt AI của Google - hoặc để đào tạo các mô hình AI độc lập - mà không bị phạt trong xếp hạng tìm kiếm thông thường. Mục tiêu là để cân bằng lại quyền lực khi các bản tóm tắt AI làm thay đổi hành vi nhấp chuột. Google đã báo hiệu rằng họ đang xem xét các biện pháp kiểm soát bổ sung, đồng thời cảnh báo về trải nghiệm tìm kiếm bị phân mảnh.
Làm thế nào một tác nhân AI có thể làm rò rỉ dữ liệu cá nhân chỉ bằng cách nhấp vào một liên kết?
OpenAI đã mô tả rủi ro rò rỉ dữ liệu dựa trên URL, trong đó kẻ tấn công yêu cầu một tác nhân AI tải xuống một liên kết mà âm thầm nhúng thông tin nhạy cảm vào chuỗi truy vấn. Ngay cả khi mô hình không bao giờ lặp lại thông tin bí mật trong kết quả đầu ra, bản thân yêu cầu vẫn có thể truyền tải thông tin đó. Một biện pháp giảm thiểu phổ biến là thêm "rào cản có chủ đích", chẳng hạn như cảnh báo và yêu cầu người dùng xác nhận khi một liên kết không được xác minh độc lập là công khai.
Bản dự thảo Hồ sơ Trí tuệ Nhân tạo An ninh mạng của NIST là gì và nó thay đổi quản trị an ninh mạng như thế nào?
Bản dự thảo hồ sơ NIST (được thảo luận thông qua phân tích pháp lý) mô tả AI vừa là thứ cần được bảo mật, vừa là thứ có thể được sử dụng trong phòng thủ mạng. Nó nhóm các công việc thành các chủ đề như bảo mật các thành phần AI, giải quyết rủi ro chuỗi cung ứng và triển khai các biện pháp phòng thủ dựa trên AI - bao gồm cả các quy trình phản hồi tự động, giống như tác nhân. Mặc dù mang tên "tự nguyện", các khuôn khổ như thế này thường trở thành những kỳ vọng trên thực tế, thúc đẩy các tổ chức phải chính thức đưa AI vào quản trị và kiểm soát.