Tin tức về Trí tuệ Nhân tạo, ngày 22 tháng 2 năm 2026

Tổng hợp tin tức về Trí tuệ nhân tạo: Ngày 22 tháng 2 năm 2026

🏫 Ở một số trường học, chatbot dùng để hỏi học sinh về bài tập của các em. Nhưng cuộc cách mạng trí tuệ nhân tạo đang khiến các giáo viên lo lắng

Một số trường học ở Úc đang thử nghiệm một biến thể sắc bén hơn của phương pháp “trình bày cách làm” – học sinh hoàn thành bài tập, sau đó một chatbot AI sẽ đặt câu hỏi qua lại để kiểm tra xem họ có hiểu những gì mình đã nộp hay không. Về cơ bản, đó là một cuộc thi vấn đáp, nhưng với một cỗ máy hỏi “ý bạn là gì?” cho đến khi bạn bắt đầu cảm thấy lúng túng.

Mối lo ngại lớn hơn là việc triển khai không đồng đều: một báo cáo trong ngành cảnh báo rằng những người nhanh chóng áp dụng có thể vượt lên dẫn trước trong khi những người khác tụt hậu, tạo ra một hệ thống giáo dục hai tốc độ. Giáo viên cũng liên tục nêu lên những mối lo ngại quen thuộc - và vẫn rất nghiêm trọng: quyền riêng tư, sức khỏe tinh thần và làm thế nào để ngăn chặn việc "trợ giúp của AI" biến thành "AI đã làm điều đó".

👮 Cảnh sát Metropolitan đang sử dụng các công cụ trí tuệ nhân tạo do Palantir cung cấp để phát hiện hành vi sai trái của sĩ quan

Cảnh sát Thủ đô London (Met) đang sử dụng trí tuệ nhân tạo (AI) do Palantir cung cấp để phân tích các mô hình làm việc nội bộ - ốm đau, vắng mặt, làm thêm giờ - nhằm tìm kiếm các dấu hiệu có thể liên quan đến các vấn đề về tiêu chuẩn nghề nghiệp. Đây được coi là một dự án thí điểm có thời hạn và điều quan trọng là, Met cho biết con người vẫn đưa ra các quyết định cuối cùng… nhưng “vẫn” nghĩa là khối lượng công việc rất lớn.

Liên đoàn Cảnh sát không mấy hài lòng, gọi đó là “sự nghi ngờ tự động” và cảnh báo về những công cụ thiếu minh bạch có thể hiểu sai căng thẳng và khối lượng công việc thành hành vi sai trái. Đây là một trong những trường hợp mà công nghệ nghe có vẻ hay trên slide, nhưng khi bạn hình dung cảm giác khi sử dụng nó trong thực tế thì lại thấy nó rất khó chịu.

🛡️ Cơ quan giám sát quyền riêng tư của Anh cảnh báo về hình ảnh do AI tạo ra trong một tuyên bố chung

Cơ quan Bảo vệ Dữ liệu Anh (ICO) đã cùng các cơ quan quản lý khác đưa ra cảnh báo chung về hình ảnh do AI tạo ra có thể mô tả người thật mà không có sự đồng ý - về cơ bản: đừng coi "đó là hình ảnh tổng hợp" như một lời bào chữa thần kỳ. Thông điệp là cần xây dựng các biện pháp bảo vệ ngay từ đầu và hợp tác với các cơ quan quản lý thay vì thực hiện chiêu trò kinh điển trong ngành công nghệ là tung sản phẩm ra thị trường trước rồi mới xin lỗi sau.

Họ cũng nhấn mạnh những rủi ro cao hơn đối với trẻ em, điều này hoàn toàn hợp lý, bởi vì một khi những thứ này lan rộng thì giống như việc cố gắng múc kim tuyến trở lại vào lọ vậy. Ý chính là quyền riêng tư và phẩm giá cần phải tồn tại trong vòng xoáy của thời trang, hoặc ít nhất là dường như vậy.

🪖 Theo Axios, Bộ trưởng Quốc phòng Mỹ Hegseth triệu tập Giám đốc điều hành Anthropic để có cuộc đàm phán căng thẳng về việc sử dụng robot Claude cho mục đích quân sự

Hãng Reuters đưa tin Bộ trưởng Quốc phòng Mỹ dự kiến ​​sẽ gặp Giám đốc điều hành của Anthropic trong một cuộc thảo luận được mô tả là mang tính đối đầu hơn về việc sử dụng Claude trong quân sự. Lầu Năm Góc được cho là muốn các nhà cung cấp AI lớn cung cấp các mô hình của họ trên các mạng lưới mật với ít hạn chế hơn - và Anthropic đang phản đối bất kỳ sự nới lỏng nào về các biện pháp bảo vệ.

Ý nghĩa ngầm hiểu là một tình huống khó xử kinh điển kiểu "hành động nhanh nhưng... phải có sự can thiệp của tên lửa". Nếu các bên không thể thống nhất về các giới hạn an toàn, mối quan hệ có thể trở nên căng thẳng hoặc thậm chí đổ vỡ - tuy nhiên, Anthropic cũng đang phát tín hiệu rằng các cuộc đàm phán với chính phủ vẫn mang tính xây dựng, vì vậy tình hình căng thẳng, nhưng chưa phải là dấu hiệu chia tay hoàn toàn (ít nhất là hiện tại).

🧠 Ghi chú phát hành ChatGPT

Ghi chú phát hành của OpenAI chỉ ra cửa sổ ngữ cảnh được mở rộng cho chế độ “Suy nghĩ” - nghĩa là bạn có thể cung cấp cho mô hình nhiều văn bản hơn và giữ cho các chuỗi hội thoại dài mạch lạc mà không làm mất đi các chi tiết trước đó. Nếu bạn đã từng chứng kiến ​​một mô hình “quên” điều bạn vừa nói (thật khó chịu), thì tính năng này nhắm đến giải pháp đó.

Đây là một bản nâng cấp khá "mọt sách" nhưng âm thầm thay đổi những gì vốn dĩ đã thiết thực: tài liệu dài hơn, dự án phức tạp hơn, các buổi nghiên cứu kéo dài hơn. Không hào nhoáng, nhưng đó là kiểu thay đổi nhỏ giúp cả ngôi nhà bỗng trở nên rộng rãi hơn.

Câu hỏi thường gặp

Việc các trường học sử dụng chatbot để "hỏi đáp" học sinh về bài tập có nghĩa là gì?

Tại một số trường học ở Úc, học sinh hoàn thành bài tập và sau đó tham gia trao đổi qua lại với chatbot AI để kiểm tra lập luận của họ. Nó hoạt động giống như một buổi vấn đáp, yêu cầu học sinh giải thích những gì họ đã viết và lý do tại sao. Mục đích là để xác minh sự hiểu biết, chứ không chỉ là kết quả đầu ra. Nó cũng có thể phát hiện ra những lỗ hổng khi học sinh không thể bảo vệ các luận điểm chính.

Làm thế nào chatbot AI trong trường học có thể tạo ra một hệ thống giáo dục "hai tốc độ"?

Một báo cáo trong ngành cảnh báo rằng những trường nhanh chóng áp dụng công nghệ có thể vượt lên dẫn trước trong khi những trường chậm hơn sẽ tụt hậu. Nếu một số trường triển khai các công cụ AI để đánh giá mức độ hiểu bài, hỗ trợ học tập hoặc ngăn chặn việc lạm dụng, họ có thể cải thiện kết quả nhanh hơn. Những trường khác có thể thiếu ngân sách, năng lực nhân viên hoặc chính sách rõ ràng để triển khai các hệ thống tương tự. Sự tiếp nhận không đồng đều này có thể làm gia tăng khoảng cách về nguồn lực và thành tích hiện có.

Các giáo viên đang cố gắng làm thế nào để ngăn chặn việc "trợ giúp của AI" biến thành "AI đã làm điều đó"?

Một cách tiếp cận phổ biến là chuyển trọng tâm đánh giá sang quá trình và giải thích, chứ không chỉ sản phẩm hoàn chỉnh. Các câu hỏi kiểu chatbot, bản nháp, phản hồi hoặc kiểm tra miệng có thể khiến việc nộp bài mà bạn không hiểu trở nên khó khăn hơn. Giáo viên cũng có thể đặt ra những giới hạn rõ ràng hơn về sự hỗ trợ được chấp nhận, chẳng hạn như việc động não so với việc viết lại hoàn toàn. Trọng tâm vẫn là thể hiện sự hiểu biết, chứ không phải kiểm soát mọi công cụ.

Những vấn đề nào về quyền riêng tư và sức khỏe nảy sinh khi trí tuệ nhân tạo được sử dụng trong lớp học?

Giáo viên liên tục bày tỏ lo ngại về việc dữ liệu học sinh được thu thập như thế nào, được lưu trữ ở đâu và ai có thể truy cập. Ngoài ra, còn có những lo ngại về sức khỏe tinh thần nếu học sinh cảm thấy bị giám sát liên tục hoặc bị gây áp lực bởi các câu hỏi do máy móc đặt ra. Trẻ em là nhóm đối tượng có nguy cơ đặc biệt cao, bởi vì thông tin nhạy cảm có thể lan truyền hoặc tồn tại trong hệ thống theo những cách không ngờ tới. Nhiều trường học hướng đến việc thiết lập các biện pháp bảo vệ ngay từ đầu thay vì cố gắng bổ sung chúng sau này.

Sở cảnh sát Metropolitan đang sử dụng trí tuệ nhân tạo do Palantir cung cấp như thế nào để phát hiện các hành vi sai trái tiềm tàng của cảnh sát?

Cảnh sát Thủ đô London (Met) đang sử dụng trí tuệ nhân tạo (AI) do Palantir cung cấp để phân tích các mô hình làm việc như ốm đau, vắng mặt và làm thêm giờ. Mục đích là để phát hiện các dấu hiệu có thể liên quan đến các vấn đề về tiêu chuẩn nghề nghiệp. Đây được mô tả là một dự án thí điểm có thời hạn, và Met cho biết việc xác định cuối cùng vẫn do con người thực hiện. Các nhà phê bình cho rằng công cụ này có thể tạo cảm giác như "sự nghi ngờ tự động" nếu nó hiểu căng thẳng là hành vi sai trái.

Tại sao các nghiệp đoàn cảnh sát lại lo ngại về "sự nghi ngờ tự động" từ các công cụ giám sát của trí tuệ nhân tạo?

Liên đoàn Cảnh sát lo ngại rằng các mô hình thiếu minh bạch có thể suy luận hành vi sai trái từ những mô hình có lời giải thích vô hại. Khối lượng công việc tăng đột biến, vấn đề sức khỏe và căng thẳng có thể làm thay đổi việc đi làm hoặc làm thêm giờ mà không nhất thiết ám chỉ hành vi sai trái. Nếu logic của công cụ không minh bạch, sẽ khó khăn hơn cho các sĩ quan khi phản đối các cảnh báo hoặc cho các nhà quản lý khi thiết lập các ngưỡng công bằng. Ngay cả với các quyết định của con người, các tín hiệu tự động vẫn có thể định hình kết quả.

Cơ quan bảo mật thông tin Anh (ICO) đang cảnh báo về điều gì liên quan đến hình ảnh do trí tuệ nhân tạo tạo ra có thể nhận dạng được người?

Cơ quan giám sát quyền riêng tư của Anh đã cùng các cơ quan quản lý khác cảnh báo rằng “hình ảnh tổng hợp” không có nghĩa là không gây hậu quả. Nếu hình ảnh do AI tạo ra mô tả một người có thể nhận dạng được mà không có sự đồng ý, thì rủi ro về quyền riêng tư và phẩm giá vẫn tồn tại. Các cơ quan quản lý nhấn mạnh việc xây dựng các biện pháp bảo vệ ngay từ đầu và tham gia vào quá trình giám sát thay vì vội vàng tung sản phẩm ra thị trường. Họ cũng cảnh báo về những rủi ro cao hơn đối với trẻ em, nơi mà tác hại có thể lan rộng nhanh chóng một khi nội dung được lan truyền.

Điều gì đứng sau những thông tin cho rằng Lầu Năm Góc đang gây áp lực lên Anthropic về việc sử dụng Claude cho mục đích quân sự?

Hãng Reuters đưa tin Bộ trưởng Quốc phòng Mỹ dự kiến ​​sẽ gặp Giám đốc điều hành của Anthropic để thảo luận sâu hơn về việc sử dụng Claude trong quân sự. Lầu Năm Góc được cho là muốn các nhà cung cấp AI lớn cung cấp mô hình của họ trên các mạng lưới mật với ít hạn chế hơn. Anthropic đang phản đối việc nới lỏng các biện pháp bảo vệ, viện dẫn sự xung đột về các rào cản kiểm soát. Mối quan hệ có vẻ căng thẳng, mặc dù cả hai bên đều cho biết các cuộc đàm phán vẫn mang tính xây dựng.

Ghi chú phát hành của ChatGPT đã thay đổi điều gì về độ dài ngữ cảnh của chế độ “Suy nghĩ”?

Ghi chú phát hành của OpenAI chỉ ra cửa sổ ngữ cảnh được mở rộng cho chế độ “Suy nghĩ”, cho phép nhiều văn bản hơn nằm trong cùng một luồng. Trên thực tế, điều đó có thể giúp ích với các tài liệu dài, các dự án phức tạp và các nghiên cứu nhiều bước, nơi các chi tiết ban đầu rất quan trọng. Đây là một nâng cấp mang tính cải tiến hệ thống hơn là một tính năng hào nhoáng. Lợi ích chính là giảm thiểu việc bỏ sót chi tiết trong các phiên làm việc dài.

Tin tức AI ngày hôm qua: 21 tháng 2 năm 2026

Tìm kiếm những công nghệ AI mới nhất tại Cửa hàng Trợ lý AI chính thức

Về chúng tôi

Quay lại blog