🔐 OpenAI xác định vấn đề bảo mật liên quan đến công cụ của bên thứ ba, khẳng định dữ liệu người dùng không bị truy cập ↗
OpenAI cho biết một công cụ phát triển của bên thứ ba bị xâm phạm đã ảnh hưởng đến quy trình mà công ty sử dụng để chứng nhận tính hợp lệ của các ứng dụng macOS của mình. Công ty cho biết họ không tìm thấy bằng chứng nào cho thấy dữ liệu người dùng bị truy cập, hệ thống hoặc sở hữu trí tuệ của họ bị xâm phạm, hoặc phần mềm của họ bị thay đổi - đây là điểm mấu chốt. ( Reuters )
Hậu quả thực tế vẫn khá nghiêm trọng. OpenAI đã xoay vòng chứng chỉ và siết chặt các quy định để các ứng dụng ChatGPT giả mạo nhưng thuyết phục không trở thành vấn đề lớn hơn mức cần thiết. Không phải là vi phạm, nhưng đúng hơn là một trong những trường hợp "cập nhật ứng dụng của bạn ngay bây giờ". ( OpenAI )
🧯 Sam Altman phản hồi bài báo "kích động" trên tờ New Yorker sau vụ tấn công vào nhà ông ↗
Sam Altman đã công khai phản bác lại bài viết chỉ trích gay gắt trên tờ New Yorker sau khi dường như nhắm vào nhà riêng của ông, gọi một số phần trong đó là sai lệch và mang tính cá nhân. Toàn bộ bài viết mang tính chất khá thẳng thắn đối với một bài đăng của CEO - mang tính phòng thủ hơn là trau chuốt, có lẽ là do chủ ý. ( TechCrunch )
Cùng lúc đó, cảnh sát đã bắt giữ một nghi phạm liên quan đến vụ tấn công bằng bom xăng tại nhà riêng của Altman ở San Francisco, không có thương vong nào được báo cáo. Vì vậy, câu chuyện đã chuyển hướng từ chỉ trích truyền thông sang an ninh vật lý chỉ trong nháy mắt - và giờ đây, điều đó đã trở thành một phần thực sự của tin tức về trí tuệ nhân tạo. ( Tin tức AP )
🏗️ Các cựu lãnh đạo dự án Stargate của OpenAI có kế hoạch gia nhập Meta Platforms ↗
Ba nhân vật cấp cao gắn liền với dự án cơ sở hạ tầng Stargate của OpenAI được cho là sẽ gia nhập Meta. Đây không chỉ là sự thay đổi nhân tài thông thường mà còn là sự thay đổi nhân tài trong cuộc chiến điện toán, điều này càng trở nên khác biệt khi mọi người đang tranh giành các trung tâm dữ liệu, chip và nguồn điện.
Việc tuyển dụng này cho thấy Meta không chỉ đơn thuần chi mạnh tay cho các mô hình, mà còn đang cố gắng thu hút những người biết cách xây dựng hệ thống nền tảng công nghiệp bên dưới chúng. Có vẻ khô khan trên bề mặt, nhưng đây chính là điểm mấu chốt của cuộc đua hiện nay. ( Bloomberg )
🛡️ Bản xem trước Claude Mythos ↗
Anthropic cho biết mô hình Mythos mới của họ đủ mạnh mẽ trong lĩnh vực an ninh mạng đến mức họ chưa phát hành rộng rãi, ít nhất là chưa. Thay vào đó, nó đang được tập trung vào một nỗ lực phòng thủ được kiểm soát chặt chẽ, bởi vì công ty tin rằng mô hình này có thể phát hiện ra các lỗ hổng phần mềm nguy hiểm ở quy mô, nói một cách dễ hiểu, hơi đáng báo động. ( Red Anthropic )
Sự thận trọng đó đã bắt đầu lan rộng. Các báo cáo cho biết các quan chức Mỹ và các công ty lớn đang coi bước nhảy vọt về khả năng của mô hình này là một vấn đề an ninh cơ sở hạ tầng thực sự, chứ không chỉ là một màn ra mắt hào nhoáng khác. Lần này, chu kỳ AI đang được chuẩn bị kỹ lưỡng. ( Axios )
☁️ CoreWeave đạt thỏa thuận hợp tác về điện toán đám mây AI với Anthropic, cổ phiếu tăng giá ↗
CoreWeave cho biết họ sẽ cung cấp cho Anthropic năng lực điện toán đám mây theo một thỏa thuận nhiều năm, dự kiến sẽ đi vào hoạt động vào cuối năm nay. Điều này một lần nữa nhắc nhở rằng các công ty kiểu mẫu vẫn chỉ phát triển nhanh bằng cơ sở hạ tầng hạ tầng bên dưới – phần mềm hào nhoáng, nhưng lại vướng phải những nút thắt cổ chai vật lý khắc nghiệt.
Đối với Anthropic, thỏa thuận này củng cố khả năng tiếp cận điện toán cho dòng sản phẩm Claude. Đối với CoreWeave, đây là một dấu hiệu nữa cho thấy các nhà cung cấp dịch vụ điện toán đám mây AI chuyên biệt đang tiếp tục thu hút khách hàng từ nhóm các nhà xây dựng mô hình hàng đầu, điều này - khá bất ngờ - vẫn đang giữ vững vị thế của mình. ( Reuters )
💸 SiFive, công ty được Nvidia hậu thuẫn, đạt mức định giá 3,65 tỷ đô la nhờ chip AI mã nguồn mở ↗
SiFive đã huy động được 400 triệu đô la Mỹ với mức định giá 3,65 tỷ đô la, một sự khẳng định mạnh mẽ về thiết kế chip mở cho các hệ thống AI. Điều này chưa có nghĩa là ngôi vị của Nvidia đang lung lay, nhưng nó cho thấy các nhà đầu tư vẫn muốn tìm kiếm những con đường thay thế để thâm nhập vào thị trường phần cứng AI.
Điểm mấu chốt ở đây rất dễ nhận thấy. Trí tuệ nhân tạo không còn chỉ là câu chuyện về mô hình, hay thậm chí là câu chuyện về chip nữa - nó đang trở thành cuộc chiến tranh giành xem những lớp nào được phép mở, những lớp nào được giữ bí mật, và ai sẽ được trả tiền ở mỗi khâu trong dây chuyền sản xuất. ( TechCrunch )
Câu hỏi thường gặp
Vấn đề bảo mật ứng dụng OpenAI trên macOS đã diễn ra như thế nào?
OpenAI cho biết một công cụ phát triển của bên thứ ba bị xâm phạm đã ảnh hưởng đến quy trình ký chứng nhận ứng dụng macOS của họ. Công ty cũng cho biết họ không tìm thấy bằng chứng nào cho thấy dữ liệu người dùng bị truy cập, hệ thống hoặc tài sản trí tuệ của họ bị xâm phạm, hoặc phần mềm của họ bị thay đổi. Vấn đề cốt lõi là lòng tin và tính xác thực của ứng dụng, chứ không phải là một vụ vi phạm thông tin khách hàng đã được xác nhận.
Tôi có nên cập nhật ứng dụng ChatGPT dành cho macOS sau sự cố với OpenAI này không?
Đúng vậy, cập nhật ứng dụng là giải pháp thiết thực. OpenAI đã xoay vòng chứng chỉ và thắt chặt quy trình để các ứng dụng ChatGPT giả mạo nhưng trông rất thuyết phục ít có khả năng gây nhầm lẫn hoặc tạo ra rủi ro hơn. Trong những trường hợp như vậy, bước an toàn nhất là sử dụng phiên bản chính thức mới nhất và tránh tải xuống ứng dụng dành cho máy tính để bàn từ các nguồn không chính thức hoặc các trang web sao chép.
Tại sao vấn đề liên quan đến công cụ của bên thứ ba lại quan trọng nếu không có dữ liệu nào bị đánh cắp?
Vì niềm tin vào phần mềm không chỉ dựa trên quyền truy cập dữ liệu. Nếu một công cụ tham gia vào quá trình chứng nhận ứng dụng bị xâm phạm, nó có thể làm dấy lên nghi ngờ về việc người dùng có thể xác định phần mềm hợp pháp một cách đáng tin cậy hay không. Trong nhiều môi trường sản xuất, vấn đề này rất quan trọng vì nó ảnh hưởng đến bảo mật phân phối, niềm tin vào các bản cập nhật và nguy cơ bị lừa đảo mạo danh.
Tại sao việc Meta tuyển dụng các cựu lãnh đạo của dự án Stargate thuộc OpenAI và thực hiện các động thái khác liên quan đến cơ sở hạ tầng AI lại được coi là vấn đề lớn đến vậy?
Những đợt tuyển dụng này cho thấy sự cạnh tranh đang diễn ra ở cấp độ mô hình, nơi các trung tâm dữ liệu, chip, điện năng và khả năng triển khai cũng quan trọng không kém gì tài năng nghiên cứu. Cơ sở hạ tầng AI đang trở thành một lợi thế chiến lược, chứ không chỉ đơn thuần là một chức năng hỗ trợ. Bài báo cho rằng Meta đang cố gắng củng cố khía cạnh công nghiệp của AI, chứ không chỉ đơn giản là bổ sung thêm các nhà nghiên cứu mô hình.
Mô hình Mythos của Anthropic là gì, và tại sao một công ty lại giới hạn việc phát hành nó?
Anthropic mô tả Mythos là một hệ thống an ninh mạng đủ tiên tiến đến mức nó được kiểm soát chặt chẽ thay vì phát hành rộng rãi. Mối lo ngại dường như là một hệ thống mạnh mẽ để tìm ra các lỗ hổng phần mềm có thể mang lại giá trị phòng thủ nhưng đồng thời cũng làm tăng nguy cơ lạm dụng. Một cách tiếp cận phổ biến trong những trường hợp như vậy là hạn chế quyền truy cập, triển khai trong phạm vi hẹp và giám sát chặt chẽ hơn.
Tại sao các thỏa thuận về cơ sở hạ tầng AI và nguồn vốn đầu tư chip mở lại quan trọng đối với thị trường AI nói chung?
Những phát hiện này cho thấy cuộc đua AI ngày càng bị chi phối bởi khả năng truy cập điện toán và lựa chọn phần cứng, chứ không chỉ bởi các tính năng chatbot. Thương vụ CoreWeave-Anthropic nhấn mạnh cách các công ty tiên phong vẫn phụ thuộc vào năng lực điện toán đám mây, trong khi việc SiFive nhận được vốn đầu tư báo hiệu sự quan tâm của nhà đầu tư đến các giải pháp thay thế trong hệ sinh thái chip AI. Nhìn chung, những động thái này cho thấy cơ sở hạ tầng AI đang trở thành chiến trường cốt lõi cho sự tăng trưởng và kiểm soát.