Tin tức về Trí tuệ Nhân tạo, ngày 4 tháng 3 năm 2026

Tổng hợp tin tức về Trí tuệ nhân tạo: Ngày 4 tháng 3 năm 2026

🏛️ Chính phủ sẽ thành lập phòng thí nghiệm mới để giúp Anh duy trì vị thế dẫn đầu trong các đột phá về trí tuệ nhân tạo

Vương quốc Anh đang thành lập một Phòng thí nghiệm Nghiên cứu Trí tuệ Nhân tạo Cơ bản do chính phủ hỗ trợ, quảng bá nó như một công trình "đột phá" - loại công trình đầy rủi ro, tiến bộ chậm, và đôi khi mang lại kết quả vượt trội so với những công trình khác. ( GOV.UK )

Trọng tâm không chỉ là “mô hình lớn hơn, nhiều GPU hơn” - mà là giải quyết các lỗi dai dẳng như ảo giác, bộ nhớ ngắn hạn và suy luận khó đoán, đồng thời cung cấp cho các nhà nghiên cứu quyền truy cập vào khả năng tính toán mạnh mẽ thông qua Trung tâm Tài nguyên Nghiên cứu AI. Nghe có vẻ rất hợp lý… và cũng, một cách kín đáo, giống như một nỗ lực để ngăn chặn việc những bộ óc xuất sắc nhất của Vương quốc Anh bị thu hút ngay lập tức sang nơi khác. ( GOV.UK )

🧨 CEO của Nvidia ám chỉ việc chấm dứt đầu tư vào OpenAI và Anthropic

Jensen Huang đang phát tín hiệu rằng Nvidia có thể sẽ không tiếp tục đầu tư vào các phòng thí nghiệm AI tiên tiến theo cách tương tự - với động lực của việc IPO (và quy mô khổng lồ của các khoản đầu tư đang được thảo luận) khiến kiểu tài trợ đó khó thực hiện hơn. ( Reuters )

Đây là một sự thay đổi đáng chú ý: Nvidia là ông vua của toàn bộ sự bùng nổ này, nhưng họ lại đang ngụ ý rằng "sở hữu cổ phần của các công ty khai thác" không phải lúc nào cũng là chiến lược đúng đắn nữa. Hoặc có thể họ chỉ đang công khai phòng ngừa rủi ro, điều mà các CEO thường làm, giống như hơi thở vậy. ( Reuters )

🧩 Tin độc quyền: Tập đoàn công nghệ lớn ủng hộ Anthropic trong cuộc chiến với Lầu Năm Góc khi các nhà đầu tư thúc đẩy giảm leo thang xung đột về các biện pháp bảo vệ trí tuệ nhân tạo

Cuộc đối đầu giữa Anthropic và Lầu Năm Góc đang biến thành một áp lực cực lớn - các nhà đầu tư được cho là muốn giảm nhiệt độ, trong khi công ty cố gắng giữ vững lập trường về ngôn ngữ bảo vệ (đặc biệt là xung quanh vấn đề giám sát). ( Reuters )

Ý nghĩa ngầm của câu chuyện thậm chí còn mạnh mẽ hơn cả nội dung chính: trong kỷ nguyên trí tuệ nhân tạo, ngôn từ trong hợp đồng không phải là "sự soi mói pháp lý nhỏ nhặt", mà về cơ bản là chính sách sản phẩm - và nó quyết định liệu một mô hình trở thành công cụ, vũ khí hay một gánh nặng khổng lồ. ( Reuters )

🪖 Sam Altman thừa nhận OpenAI không thể kiểm soát việc Lầu Năm Góc sử dụng trí tuệ nhân tạo

Theo các nguồn tin, Altman đã nói với nhân viên rằng OpenAI không thể kiểm soát cách Lầu Năm Góc sử dụng trí tuệ nhân tạo của họ sau khi triển khai - điều này gây ra phản ứng dữ dội vì nó nói thẳng vào nỗi lo ngại mà mọi người vẫn đang băn khoăn. ( The Guardian )

Bối cảnh rộng hơn là sự leo thang căng thẳng giữa "chúng tôi sẽ giúp, nhưng có điều kiện" và "chúng tôi sẽ giúp, chấm hết", cộng thêm phản ứng dữ dội từ nội bộ và công chúng khi việc áp dụng quân sự có vẻ vội vàng hoặc mang tính cơ hội. Vấn đề đạo đức ở đây không phải là một ranh giới rõ ràng mà giống như một vũng sơn ướt - ai cũng giẫm phải, rồi tranh cãi xem đó là giày của ai. ( The Guardian )

🧬 Chương trình học bổng mới về Trí tuệ nhân tạo trong lĩnh vực gen học hợp tác với Viện Sanger và Google DeepMind

Viện Wellcome Sanger đang khởi động chương trình học bổng nghiên cứu do DeepMind tài trợ, tập trung vào việc ứng dụng trí tuệ nhân tạo vào nghiên cứu gen - đây là suất học bổng DeepMind đầu tiên thuộc loại này trong lĩnh vực cụ thể này. ( sanger.ac.uk )

Điều thú vị (và thành thật mà nói, khá mới mẻ) là việc nhấn mạnh vào các vấn đề về gen chưa được khám phá nhiều, nơi trí tuệ nhân tạo chưa hiện diện khắp mọi nơi - cộng thêm ghi chú rõ ràng rằng DeepMind không chỉ đạo nghiên cứu của nghiên cứu sinh này. Nó giống như việc đưa cho ai đó một quả tên lửa và nói "hãy đi khám phá điều gì đó", thay vì "hãy tối ưu hóa lộ trình của chúng ta". ( sanger.ac.uk )

Câu hỏi thường gặp

Phòng thí nghiệm nghiên cứu Trí tuệ nhân tạo cơ bản do chính phủ Anh hậu thuẫn là gì và nó sẽ làm gì?

Phòng thí nghiệm Nghiên cứu Trí tuệ Nhân tạo Cơ bản do chính phủ hậu thuẫn đang được định vị là một nỗ lực nghiên cứu "đột phá" - công việc rủi ro cao, có thể cần thời gian để thu được kết quả. Thay vì chỉ tập trung vào việc mở rộng quy mô các mô hình ngày càng lớn hơn, phòng thí nghiệm này hướng đến giải quyết các vấn đề dai dẳng như ảo giác, trí nhớ ngắn hạn và suy luận khó đoán. Ý tưởng chính là những đột phá đến từ các nguyên tắc cơ bản, chứ không chỉ đơn thuần là việc bổ sung thêm GPU.

Phòng thí nghiệm nghiên cứu trí tuệ nhân tạo cơ bản của Vương quốc Anh có thể giúp các nhà nghiên cứu tiếp cận khả năng tính toán mạnh mẽ như thế nào?

Cùng với Phòng thí nghiệm Nghiên cứu Trí tuệ Nhân tạo Cơ bản của Vương quốc Anh, kế hoạch này nhấn mạnh việc tiếp cận nguồn lực tính toán dồi dào thông qua Trung tâm Tài nguyên Nghiên cứu Trí tuệ Nhân tạo. Trên thực tế, điều đó có nghĩa là các nhà nghiên cứu có thể tiến hành các thí nghiệm mà nếu không sẽ bị hạn chế bởi chi phí hoặc cơ sở hạ tầng. Nó cũng cho phép các nhóm thử nghiệm ý tưởng ở quy mô mà các vấn đề như độ tin cậy và tính ổn định trở nên cụ thể, chứ không chỉ là lý thuyết.

Tại sao Vương quốc Anh lại nhấn mạnh đến ảo giác, trí nhớ ngắn hạn và khả năng suy luận khó đoán?

Những điểm yếu đó là loại điểm yếu dễ bộc lộ trong quá trình triển khai và có thể nhanh chóng làm xói mòn lòng tin. Trọng tâm đã nêu cho thấy mục tiêu không chỉ là khả năng mà còn là độ tin cậy - giảm thiểu các kết quả đầu ra giả tạo, cải thiện cách các mô hình xử lý ngữ cảnh dài hơn và làm cho quá trình suy luận ít thất thường hơn. Loại công việc này thường chậm hơn và rủi ro hơn, đó là lý do tại sao nó được coi là nghiên cứu cơ bản.

Việc Nvidia thay đổi quan điểm về đầu tư vào OpenAI hay Anthropic thực sự báo hiệu điều gì?

Các báo cáo cho rằng đây là một gợi ý rằng Nvidia có thể sẽ không tiếp tục đầu tư vào các phòng thí nghiệm tiên tiến theo cách tương tự, đặc biệt là khi động lực của các đợt IPO và quy mô các khoản đầu tư khổng lồ làm phức tạp chiến lược đó. Ngay cả khi là một nhà lãnh đạo "cung cấp thiết bị" cho phần cứng AI, điều này cũng cho thấy việc sở hữu cổ phần không phải lúc nào cũng là lựa chọn tốt nhất. Đó cũng có thể là một thông điệp thận trọng, điều thường thấy trong các bình luận của các giám đốc điều hành.

Tại sao tranh chấp giữa Anthropic và Lầu Năm Góc về "ngôn ngữ bảo vệ" lại là vấn đề lớn đến vậy?

Điểm mấu chốt của bài báo là ngôn từ trong hợp đồng có thể trở thành chính sách sản phẩm - đặc biệt là khi nó liên quan đến giám sát và các mục đích sử dụng nhạy cảm khác. Các nhà đầu tư được cho là muốn giảm leo thang xung đột, trong khi công ty cố gắng giữ vững lập trường về các biện pháp bảo vệ. Trong nhiều ứng dụng AI, các điều khoản đó định hình hệ thống có thể được sử dụng cho mục đích gì và những rủi ro mà công ty chấp nhận.

Sam Altman nói rằng OpenAI không thể kiểm soát cách Lầu Năm Góc sử dụng trí tuệ nhân tạo có nghĩa là gì?

Nó mô tả một hạn chế thực tế: một khi công cụ được triển khai, nhà phát triển ban đầu có thể có khả năng hạn chế trong việc kiểm soát việc sử dụng sau này. Điều này rất quan trọng vì nó chỉ ra nỗi lo ngại cốt lõi mà mọi người nêu ra về việc áp dụng trong quân đội - các quy tắc có thể tồn tại ở giai đoạn ký hợp đồng, nhưng việc thực thi có thể khó khăn. Nó cũng phản ánh một sự căng thẳng rộng hơn giữa "giúp đỡ, có ràng buộc" và "giúp đỡ, bất kể điều kiện nào"

Tin tức AI ngày hôm qua: 3 tháng 3 năm 2026

Tìm kiếm những công nghệ AI mới nhất tại Cửa hàng Trợ lý AI chính thức

Về chúng tôi

Quay lại blog