Tin tức về Trí tuệ Nhân tạo, ngày 18 tháng 1 năm 2026

Tổng hợp tin tức về Trí tuệ nhân tạo: Ngày 18 tháng 1 năm 2026

💰 Sequoia lặng lẽ tham gia vòng gọi vốn khổng lồ của Anthropic

Sequoia - vốn đã có liên hệ với nhiều phòng thí nghiệm AI lớn - được cho là sẽ tham gia vào một vòng gọi vốn khổng lồ của Anthropic. Đây là động thái khiến cho cuộc tranh luận về "xung đột hay không xung đột" trở nên gay gắt hơn, dù ai cũng thừa nhận hay không.

Vòng gọi vốn này được cho là sẽ bao gồm cả những khoản đầu tư lớn khác, đẩy Anthropic tiến xa hơn vào nhóm các công ty hàng đầu với mức định giá khổng lồ. Cảm giác bong bóng vẫn còn đó. Điều này cũng có thể trở thành trạng thái bình thường mới, dù có phần khó chịu.

📢 ChatGPT bắt đầu "tán tỉnh" quảng cáo - và lần này là thật đấy

OpenAI được cho là đang thử nghiệm quảng cáo cho một số người dùng tại Mỹ ở các gói dịch vụ giá thấp hơn, trong khi các gói trả phí cao hơn sẽ không có quảng cáo. Họ hứa rằng quảng cáo sẽ không ảnh hưởng đến câu trả lời - điều này nghe có vẻ yên tâm, dù phản xạ tin tưởng vẫn khiến người dùng hơi lo ngại.

Ý nghĩa ngầm sâu xa hơn rất đơn giản: suy luận rất tốn kém, và chỉ riêng việc đăng ký thuê bao có thể không bao quát được mọi thứ mãi mãi… hoặc ít nhất là có vẻ như vậy. Tuy nhiên, lần đầu tiên bạn thấy chữ “được tài trợ” ở bất kỳ đâu gần chatbot, điều gì đó sẽ thay đổi trong suy nghĩ của bạn. Bầu không khí cũng thay đổi.

📚 Các nhà xuất bản cố gắng tham gia vào vụ kiện đào tạo AI của Google

Một nhóm các nhà xuất bản đang cố gắng tham gia vào một vụ kiện cáo buộc Google sử dụng các tác phẩm có bản quyền để huấn luyện hệ thống trí tuệ nhân tạo của mình. Cuộc chiến pháp lý này ngày càng lan rộng, giống như một vết nứt trên băng mà bạn cứ nghe thấy nhưng không thể xác định được chính xác vị trí.

Nếu tòa án cho phép họ tham gia, vụ kiện có thể sẽ tập trung vào ý nghĩa của "sự cho phép" và "thanh toán" đối với dữ liệu huấn luyện. Ai cũng muốn có một tiền lệ - rõ ràng là một tiền lệ có lợi cho họ.

🕳️ Một thủ thuật "tiêm nhanh" được cho là đã can thiệp vào hệ thống Gemini thông qua dữ liệu cuộc họp

Các nhà nghiên cứu mô tả một kiểu tấn công "chèn lời nhắc gián tiếp", trong đó các chỉ thị độc hại được ẩn giấu bên trong nội dung trông bình thường, sau đó một trợ lý sẽ theo dõi chúng khi người dùng hỏi một điều gì đó vô hại. Không có phần mềm độc hại, không có thủ thuật nào cả - chỉ là văn bản được vũ khí hóa, tinh vi đến kỳ lạ và cũng có phần ghê tởm.

Điều này nhắc nhở rằng "LLM đọc văn bản không đáng tin cậy" không phải là một tính năng dễ thương - mà là cả một bề mặt nguy hiểm. Giống như việc để người lạ nhét những mẩu giấy vào túi bạn cả ngày, rồi lại tỏ ra ngạc nhiên khi một trong số đó là một cái bẫy.

🎮 CEO của Razer cho biết game thủ “vốn đã thích AI” - họ chỉ ghét cái mác đó mà thôi

Bài thuyết trình của Razer tại CES tập trung vào AI như một công cụ thiết thực cho quy trình phát triển game - kiểm thử chất lượng, lặp lại, v.v. - cùng với một số khái niệm trợ lý ảo, vừa hữu ích vừa mang tính viễn tưởng.

Về cơ bản, họ cũng đang thừa nhận vấn đề về thương hiệu: người chơi không muốn "trò chơi AI tệ hại", nhưng họ muốn những công cụ thông minh hơn và trải nghiệm mượt mà hơn. Gọi đó là "hỗ trợ" thì mọi người sẽ gật đầu. Gọi đó là "AI" thì mọi người sẽ phản ứng dữ dội... đôi khi.

⚖️ Tòa án đưa ra các quy tắc cho luật sư sử dụng trí tuệ nhân tạo tạo sinh

Một hướng dẫn do tòa án ban hành về cơ bản có nội dung như sau: được thôi, hãy sử dụng genAI - nhưng bạn vẫn phải sở hữu tác phẩm đó. Bạn không thể giao phó phán đoán chuyên môn của mình cho một công cụ tạo văn bản tự động rồi lại tỏ ra ngạc nhiên khi nó tự tin tạo ra một thứ gì đó.

Điều thú vị là, việc tiết lộ thông tin không bắt buộc trừ khi thẩm phán yêu cầu - nhưng thông điệp về trách nhiệm giải trình mới là xương sống thực sự của nó. Trí tuệ nhân tạo có thể soạn thảo và chỉnh sửa… và cũng có thể ảo tưởng như một thực tập sinh quá tự tin với khiếu viết truyện.

Câu hỏi thường gặp

Việc Sequoia tham gia vòng gọi vốn khổng lồ của Anthropic có ý nghĩa gì đối với đầu tư vào trí tuệ nhân tạo và các vấn đề xung đột?

Điều này cho thấy các nhà đầu tư lớn có thể tiếp tục hỗ trợ nhiều phòng thí nghiệm AI hàng đầu cùng một lúc, điều này chắc chắn sẽ làm sống lại cuộc tranh luận về "xung đột lợi ích hay không". Khi cùng một quỹ đầu tư can thiệp vào nhiều phòng thí nghiệm, người ta bắt đầu xem xét kỹ lưỡng các động cơ, quyền tiếp cận và lợi thế cạnh tranh. Vòng gọi vốn khổng lồ được báo cáo cũng nhấn mạnh xu hướng hướng tới những khoản đầu tư khổng lồ và định giá cao ngất trời, ngay cả khi "cảm giác bong bóng" vẫn còn hiện hữu.

ChatGPT có hiển thị quảng cáo trên các gói miễn phí hoặc trả phí thấp hơn không, và liệu chúng có ảnh hưởng đến câu trả lời không?

Báo cáo cho biết OpenAI đang thử nghiệm quảng cáo cho một số người dùng tại Mỹ ở các gói dịch vụ giá thấp hơn, trong khi các gói trả phí cao hơn vẫn không có quảng cáo. Báo cáo cũng khẳng định quảng cáo sẽ không ảnh hưởng đến kết quả trả lời, điều này nghe có vẻ yên tâm trên lý thuyết nhưng vẫn có thể làm thay đổi nhận thức của mọi người về độ tin cậy. Ý nghĩa ngầm ở đây là kinh tế: suy luận logic rất tốn kém, và các gói đăng ký có thể không bao giờ đáp ứng được mọi nhu cầu.

Tại sao các nhà xuất bản lại muốn tham gia vào vụ kiện liên quan đến việc đào tạo AI của Google?

Một nhóm các nhà xuất bản đang tìm cách tham gia vào một vụ kiện cáo buộc Google sử dụng các tác phẩm có bản quyền để huấn luyện hệ thống trí tuệ nhân tạo. Nếu tòa án cho phép họ tham gia, vụ kiện có thể tập trung vào vấn đề "quyền sử dụng" và "thanh toán" đối với dữ liệu huấn luyện. Càng nhiều bên tham gia thường càng tạo ra áp lực lớn hơn để thiết lập một tiền lệ rõ ràng - đặc biệt là về việc ai được bồi thường và trong điều kiện nào.

Tấn công "chèn lời nhắc gián tiếp" là gì và tại sao nó lại là vấn đề lớn trong tin tức công nghệ AI?

Đây là một kiểu tấn công trong đó các chỉ thị độc hại được ẩn giấu bên trong nội dung trông có vẻ bình thường, và một trợ lý ảo sẽ thực thi chúng sau đó khi người dùng đưa ra một yêu cầu vô hại. Vấn đề cốt lõi là mô hình này đọc văn bản không đáng tin cậy, biến các tài liệu và tin nhắn hàng ngày thành một bề mặt tiềm ẩn nguy cơ. Điều đáng chú ý là nó có thể hoạt động mà không cần phần mềm độc hại truyền thống - chỉ cần ngôn ngữ được vũ khí hóa được nhúng trong nội dung.

Tại sao game thủ không thích nhãn hiệu "Trí tuệ nhân tạo" nhưng vẫn muốn có các công cụ AI?

CEO của Razer lập luận rằng game thủ đã thích những lợi ích thiết thực - kiểm thử nhanh hơn, quy trình lặp lại mượt mà hơn và các công cụ hỗ trợ quy trình làm việc - nhưng lại phản ứng tiêu cực với việc đặt tên thương hiệu. Mối lo ngại thường là "sự cẩu thả của AI", hay nội dung được tạo ra một cách sơ sài và thiếu tính chân thực. Việc định hình lại nó như một "công cụ hỗ trợ" hoặc một tính năng tiện ích có thể khiến người dùng cảm thấy nó là một công cụ giúp cải thiện trải nghiệm thay vì thay thế sự sáng tạo.

Các quy định của tòa án có ý nghĩa gì đối với luật sư sử dụng trí tuệ nhân tạo tạo sinh, và họ có phải công khai điều đó không?

Hướng dẫn được mô tả rất đơn giản: luật sư có thể sử dụng trí tuệ nhân tạo tạo sinh, nhưng họ vẫn chịu trách nhiệm về công việc và không thể ủy thác việc đánh giá chuyên môn cho một công cụ tạo văn bản tự động. Rủi ro là sự ảo tưởng - những sự thật hoặc trích dẫn được bịa đặt một cách tự tin - vì vậy việc xác minh và trách nhiệm giải trình vẫn là trọng tâm. Theo báo cáo, việc tiết lộ không bắt buộc trừ khi thẩm phán yêu cầu, nhưng thông điệp vẫn là: bạn phải chịu trách nhiệm về kết quả.

Tin tức AI ngày hôm qua: 17 tháng 1 năm 2026

Tìm kiếm những công nghệ AI mới nhất tại Cửa hàng Trợ lý AI chính thức

Về chúng tôi

Quay lại blog