💰 Amazon đang đàm phán đầu tư 10 tỷ USD vào nhà phát triển ChatGPT
Theo các nguồn tin, Amazon đang đàm phán để đầu tư hơn 10 tỷ đô la vào OpenAI - và nếu điều đó thực sự xảy ra, giá trị của OpenAI sẽ vượt quá 500 tỷ đô la, một con số khiến người ta phải thốt lên "thật sao?". Thương vụ này được mô tả như sự kết hợp giữa nguồn vốn và sự liên kết chiến lược… cùng với động lực đơn giản nhất: nhu cầu về sức mạnh tính toán.
Các báo cáo cũng cho thấy OpenAI có thể sẽ dựa nhiều hơn vào dung lượng của AWS và có khả năng bắt đầu sử dụng chip Trainium của Amazon, về cơ bản biến điều này thành một chuỗi cung ứng cho làn sóng mở rộng mô hình tiếp theo (hoặc ít nhất là có vẻ như vậy - những cuộc đàm phán này có thể không chắc chắn).
🔗 Đọc thêm
🧑💻 Giờ đây các nhà phát triển có thể gửi ứng dụng lên ChatGPT
OpenAI đã mở cổng đăng ký ứng dụng để xem xét và xuất bản trong ChatGPT, cùng với thư mục ứng dụng tích hợp sẵn, nơi người dùng có thể duyệt các ứng dụng nổi bật hoặc tìm kiếm bất kỳ ứng dụng nào đã được xuất bản. Ứng dụng có thể được kích hoạt ngay trong cuộc trò chuyện thông qua @mentions hoặc được chọn từ menu công cụ - rất giống "ứng dụng, nhưng tích hợp trực tiếp vào trò chuyện"
Họ cũng đang phát triển SDK ứng dụng (phiên bản beta) cùng với một gói tài nguyên dành cho nhà phát triển (ví dụ, thư viện giao diện người dùng, hướng dẫn nhanh). Việc kiếm tiền hiện tại khá thận trọng - chủ yếu là liên kết đến các giao dịch hoàn tất - nhưng rõ ràng OpenAI muốn điều này phát triển thành một hệ sinh thái thực sự.
🔗 Đọc thêm
🗞️ Giới thiệu Học viện OpenAI dành cho các Tổ chức Tin tức
OpenAI đã ra mắt một trung tâm học tập dành cho các nhà báo, biên tập viên và nhà xuất bản, được xây dựng với sự hợp tác của các đối tác như American Journalism Project và The Lenfest Institute. Mục tiêu chính là: cung cấp các khóa đào tạo thực tiễn và cẩm nang hướng dẫn giúp các tòa soạn sử dụng AI mà không làm suy giảm lòng tin vào quy trình này.
Chương trình ra mắt của Học viện bao gồm “Những kiến thức cơ bản về AI dành cho nhà báo”, cùng với các trường hợp sử dụng như nghiên cứu điều tra/lấy thông tin nền, dịch thuật, phân tích dữ liệu và nâng cao hiệu quả sản xuất. Ngoài ra, chương trình còn nhấn mạnh rất rõ vào việc sử dụng có trách nhiệm và quản trị nội bộ - bởi vì, đúng vậy, ai đó phải viết văn bản chính sách mà chẳng ai muốn viết.
🔗 Đọc thêm
⚡ Gemini 3 Flash: Trí tuệ tiên tiến được thiết kế cho tốc độ
Google đã triển khai Gemini 3 Flash như một mô hình nhanh hơn, tiết kiệm chi phí hơn - và biến nó thành mặc định trong ứng dụng Gemini và Chế độ AI trong Tìm kiếm. Về cơ bản, khẩu hiệu là "Khả năng suy luận chuyên nghiệp, tốc độ ngang tầm Flash", nghe có vẻ như một câu slogan… nhưng cũng phần nào mô tả toàn bộ cuộc đua hiện nay.
Mô hình này cũng đang được triển khai rộng rãi trên các nền tảng dành cho nhà phát triển và doanh nghiệp (Gemini API, AI Studio, Vertex AI, v.v.). Điều ẩn chứa đằng sau đó khá kỳ lạ: Google muốn mô hình này có mặt ở khắp mọi nơi mà người dùng đang sử dụng, để chi phí chuyển đổi trở nên ngày càng tăng cao.
🔗 Đọc thêm
🧩 OpenUSD và NVIDIA Halos tăng tốc độ an toàn cho xe taxi tự lái và hệ thống AI vật lý
NVIDIA đang kết hợp các tiêu chuẩn mô phỏng và quy trình làm việc an toàn thành một hệ thống "AI vật lý" mạch lạc hơn - bao gồm robot và xe tự hành phải hoạt động hiệu quả trong môi trường hỗn loạn thực tế. Một thành phần quan trọng là Đặc tả cốt lõi OpenUSD 1.0, nhằm mục đích làm cho các quy trình 3D/mô phỏng trở nên dễ dự đoán và tương thích hơn giữa các công cụ.
Về khía cạnh an toàn, NVIDIA nhấn mạnh Phòng thí nghiệm Kiểm tra Hệ thống AI Halos (và chương trình chứng nhận) dành cho các đội xe taxi tự lái, hệ thống tự lái, cảm biến và nền tảng. Các đơn vị tham gia sớm được nêu tên bao gồm Bosch, Nuro và Wayve, trong đó Onsemi được xướng tên là đơn vị đầu tiên vượt qua cuộc kiểm tra - một khoảnh khắc "mở khóa huy hiệu" khá thú vị.
🔗 Đọc thêm
🧪 Phòng thí nghiệm UC San Diego thúc đẩy nghiên cứu Trí tuệ nhân tạo tạo sinh với hệ thống NVIDIA DGX B200
Phòng thí nghiệm Hao AI của Đại học UC San Diego đã nhận được hệ thống NVIDIA DGX B200 để thúc đẩy nghiên cứu về suy luận LLM độ trễ thấp - phần kỹ thuật không hào nhoáng nhưng quyết định liệu "AI hoạt động tức thì" hay "AI hoạt động chậm như chờ bánh mì nướng". NVIDIA cũng lưu ý rằng các hệ thống suy luận thương mại như Dynamo dựa trên các khái niệm từ công trình nghiên cứu của phòng thí nghiệm, bao gồm cả DistServe.
Câu chuyện tập trung mạnh vào "hiệu suất tốt" so với thông lượng - về cơ bản, là thông lượng vẫn đáp ứng được mục tiêu độ trễ. Họ cũng mô tả việc phân chia quá trình điền trước và giải mã trên các GPU khác nhau để giảm thiểu sự xung đột tài nguyên, điều này nghe có vẻ chuyên sâu, nhưng đó là kiểu chuyên sâu giúp thay đổi cảm nhận về sản phẩm.
🔗 Đọc thêm
🏗️ Hut 8 ký kết thỏa thuận cung cấp công suất 245MW với Fluidstack như một phần của quan hệ đối tác đa gigawatt với Anthropic
Hut 8 đã ký một thỏa thuận dài hạn cho thuê công suất 245MW tại khu phức hợp River Bend của mình cho công ty điện toán đám mây AI Fluidstack với cấu trúc được định giá 7 tỷ đô la (với các tùy chọn có thể đẩy giá trị lên cao hơn nhiều). Anthropic tham gia với tư cách là người dùng cuối thông qua quan hệ đối tác rộng hơn - đây là cơ sở hạ tầng khai thác tiền điện tử chuyển hướng sang sức mạnh AI, chỉ là… lớn hơn.
Ngoài ra còn có quyền ưu tiên mua thêm tối đa 1GW tại River Bend, cùng với sự tham gia tài chính từ các ngân hàng lớn và sự bảo lãnh của Google. Thành thật mà nói, toàn bộ câu chuyện giống như "Trí tuệ nhân tạo muốn quyền lực và bất động sản - và nó muốn có chúng ngay lập tức."
🔗 Đọc thêm