🏗️ Theo Politico, Mỹ đang thúc đẩy các công ty hướng tới một mô hình trung tâm dữ liệu AI “nhỏ gọn” mới ↗
Theo các nguồn tin, Mỹ đang cố gắng thuyết phục các công ty lớn ký kết một "thỏa thuận" mới dành cho các trung tâm dữ liệu AI - về cơ bản là một tập hợp các cam kết về cách thức vận hành các hệ thống điện toán khổng lồ này.
Chi tiết vẫn còn khá mơ hồ (điều thường thấy), nhưng hướng đi có vẻ quen thuộc: chuẩn hóa các kỳ vọng về năng lượng, an ninh và có thể cả báo cáo nữa - một cách nói lịch sự mang tính chính sách kiểu "xin đừng để điều này trở thành một mớ hỗn độn"
🎬 Google bị Autodesk kiện vì phần mềm làm phim sử dụng trí tuệ nhân tạo ↗
Autodesk đang kiện Google về tên gọi “Flow”, cho rằng họ đã sử dụng tên “Flow” cho phần mềm quản lý sản xuất và hiệu ứng hình ảnh - và công cụ làm phim bằng trí tuệ nhân tạo của Google cũng ra mắt với cùng tên gọi đó.
Chi tiết gây chú ý hơn là cáo buộc rằng Google trước đây từng tuyên bố sẽ không thương mại hóa cái tên này… rồi sau đó vẫn tiến hành đăng ký nhãn hiệu. Chắc chắn đây là một cuộc chiến về nhãn hiệu, nhưng nó cũng mang hơi hướng của cuộc đối đầu nhỏ giữa “nền tảng lớn và nhà sản xuất công cụ chuyên biệt”.
🏥 Nghiên cứu cho thấy trí tuệ nhân tạo (AI) không tốt hơn các phương pháp khác trong việc giúp bệnh nhân tìm kiếm lời khuyên y tế ↗
Một nghiên cứu mới cho thấy việc sử dụng trí tuệ nhân tạo (AI) để tư vấn y tế cho bệnh nhân không vượt trội hơn các phương pháp khác - điều này không có gì đáng ngạc nhiên và phần nào an tâm, tùy thuộc vào việc bạn đã hoài nghi các công cụ kiểm tra triệu chứng đến mức nào.
Điều đó không có nghĩa là AI vô dụng trong chăm sóc sức khỏe - chỉ là việc "hỏi ý kiến bot" không tự động là một sự nâng cấp so với các lựa chọn hiện có, đặc biệt khi độ chính xác và an toàn là yếu tố quan trọng nhất.
🩺 Các ứng dụng và bot được hỗ trợ bởi trí tuệ nhân tạo đang xâm nhập mạnh mẽ vào lĩnh vực y học. Các bác sĩ đang có nhiều câu hỏi. ↗
Một cuộc điều tra đi sâu vào việc các ứng dụng y tế và chatbot sử dụng trí tuệ nhân tạo đang xâm nhập vào lĩnh vực lâm sàng như thế nào - đôi khi nhanh hơn cả sự hướng dẫn, giám sát hoặc bằng chứng khoa học thông thường có thể theo kịp.
Các bác sĩ đang bày tỏ lo ngại về độ tin cậy, nguy cơ gây hại cho bệnh nhân và trách nhiệm của ai khi một con bot đưa ra lời khuyên nghe có vẻ tự tin nhưng lại sai… giống như một hệ thống định vị GPS khuyên bạn lái xe xuống hồ, nhưng thay vào đó là thuốc.
📈 Theo CNBC đưa tin, CEO của OpenAI cho biết ChatGPT đã quay trở lại mức tăng trưởng hàng tháng hơn 10% ↗
Theo các nguồn tin, CEO của OpenAI cho biết ChatGPT đã quay trở lại mức tăng trưởng hàng tháng hơn 10% - đây là một thành tựu đáng kể nếu xét đến giả định rằng giai đoạn "mọi người đều đã thử rồi" đã đạt đỉnh.
Điều này cho thấy hoặc là người dùng mới vẫn đang đổ xô vào, hoặc người dùng hiện tại đang tìm thấy nhiều lý do hơn để tiếp tục sử dụng - hoặc cả hai. Dù sao đi nữa, sản phẩm này đang hoạt động giống như một cơ sở hạ tầng hơn là một trào lưu nhất thời… hoặc ít nhất là có vẻ như vậy.
Câu hỏi thường gặp
"Trung tâm dữ liệu AI" được đề xuất mà Mỹ đang thúc đẩy là gì?
Nó được mô tả như một tập hợp các cam kết mà các công ty lớn sẽ đồng ý khi xây dựng hoặc vận hành các trung tâm dữ liệu AI quy mô lớn. Mục đích là để chuẩn hóa các kỳ vọng nhằm tránh tình trạng các dự án điện toán khổng lồ này bị phân tán hoặc không nhất quán giữa các công ty. Mặc dù các chi tiết cụ thể vẫn chưa được thống nhất, trọng tâm dường như nằm ở khía cạnh thực tiễn: sử dụng năng lượng, bảo mật và có thể là một số hình thức báo cáo.
Tại sao Mỹ lại muốn các công ty ký kết thỏa thuận về trung tâm dữ liệu AI?
Một thỏa thuận hợp tác có thể thiết lập các kỳ vọng cơ bản chung mà không buộc các nhà lập pháp phải soạn thảo một quy tắc mới cho mỗi trường hợp ngoại lệ. Với sự mở rộng nhanh chóng của các trung tâm dữ liệu AI, các nhà hoạch định chính sách thường lo ngại về tác động đến lưới điện, rủi ro an ninh và tính minh bạch trong hoạt động. Một chiến lược phổ biến là liên kết các bên tham gia lớn nhất ngay từ đầu, để các thực tiễn tốt được lan rộng nhanh hơn và việc truy vết trách nhiệm dễ dàng hơn nếu có vấn đề phát sinh.
Những loại cam kết nào có thể được đưa vào một thỏa thuận hợp tác về trung tâm dữ liệu AI?
Dựa trên những đề xuất đã được đưa ra, các cam kết có thể bao gồm quy hoạch năng lượng (cách thức khai thác và quản lý điện năng), các biện pháp an ninh (vật lý và mạng), và một số hình thức báo cáo hoặc công khai thông tin. Trong nhiều dự án đường ống dẫn khí, báo cáo trở thành lớp “thực thi nhẹ” giúp các tiêu chuẩn trở nên dễ hiểu và có thể đo lường được. Nếu thỏa thuận là tự nguyện, những cam kết đó có thể được xây dựng như những hướng dẫn giúp định hình quy định sau này.
Vụ kiện liên quan đến công cụ làm phim bằng trí tuệ nhân tạo "Flow" của Google là gì?
Autodesk đang kiện Google về tên gọi “Flow”, cho rằng Autodesk đã sử dụng tên “Flow” cho phần mềm quản lý sản xuất và hiệu ứng hình ảnh (VFX). Vụ tranh chấp được xem là xung đột về nhãn hiệu và thương hiệu, kèm theo cáo buộc rằng Google trước đây từng tuyên bố sẽ không thương mại hóa tên gọi này nhưng sau đó vẫn theo đuổi việc đăng ký nhãn hiệu. Những vụ kiện như thế này thường xoay quanh quyền ưu tiên thương hiệu và khả năng gây nhầm lẫn.
Vậy việc AI không tốt hơn các phương pháp khác trong việc tư vấn y tế cho bệnh nhân có nghĩa là gì?
Điều này cho thấy rằng việc "hỏi bot" không tự động chính xác hơn hoặc an toàn hơn so với các phương pháp hiện có mà bệnh nhân sử dụng để tìm kiếm hướng dẫn. Điều đó có thể mang lại cảm giác yên tâm nếu bạn lo ngại về những câu trả lời quá tự tin từ các công cụ kiểm tra triệu chứng hoặc chatbot. Nó không phủ nhận giá trị tiềm năng của AI trong chăm sóc sức khỏe, nhưng nó nhấn mạnh sự cần thiết của bằng chứng, sự giám sát và tích hợp cẩn thận ở những nơi mà sai sót có thể gây hại.
Tại sao các bác sĩ lại lo ngại về các ứng dụng y tế và chatbot được hỗ trợ bởi trí tuệ nhân tạo?
Các bác sĩ lo ngại về độ tin cậy, nguy cơ gây hại cho bệnh nhân và trách nhiệm của ai khi một công cụ đưa ra lời khuyên tự tin nhưng không chính xác. Mối quan ngại không chỉ nằm ở độ chính xác; mà còn ở cách bệnh nhân hiểu kết quả và liệu hệ thống có thúc đẩy mọi người tự quản lý sức khỏe một cách không an toàn hay không. Trong môi trường lâm sàng, trách nhiệm không rõ ràng có thể trở thành một rủi ro lớn: bệnh nhân có thể tin tưởng công cụ, bác sĩ có thể không kiểm soát được nó, và hướng dẫn có thể chậm hơn so với việc áp dụng.