Nvidia vừa công bố AI Workbench, hứa hẹn sẽ làm cho việc tạo ra AI sáng tạo dễ dàng và quản lý hơn nhiều. Không gian làm việc này sẽ cho phép nhà phát triển phát triển và triển khai các mô hình như vậy trên các nền tảng AI Nvidia khác nhau, bao gồm cả máy tính cá nhân và máy trạm. Liệu chúng ta có đang chuẩn bị bị tràn ngập thêm nội dung AI nữa không? Có thể không, nhưng chắc chắn AI Workbench có vẻ sẽ làm quy trình này dễ tiếp cận hơn đáng kể.
Trong thông báo, Nvidia cho biết hiện có hàng trăm ngàn mô hình đã được huấn luyện sẵn; tuy nhiên, tùy chỉnh chúng mất thời gian và công sức. Đây là lúc Workbench ra đời, đơn giản hóa quy trình đó. Nhà phát triển giờ đây sẽ có thể tùy chỉnh và chạy AI sáng tạo với rất ít nỗ lực, sử dụng mọi mô hình cần thiết cấp doanh nghiệp. Công cụ Workbench hỗ trợ các framework, thư viện và SDK khác nhau từ nền tảng AI Nvidia riêng, cũng như các kho mã nguồn mở như GitHub và Hugging Face.
Sau khi tùy chỉnh, các mô hình có thể được chia sẻ trên nhiều nền tảng dễ dàng. Những nhà phát triển sử dụng máy tính cá nhân hoặc máy trạm với card đồ họa Nvidia RTX sẽ có thể làm việc với các mô hình sáng tạo này trên hệ thống cục bộ của họ, nhưng cũng có thể mở rộng lên các nguồn tài nguyên trung tâm dữ liệu và đám mây khi cần.
"AI Workbench của Nvidia cung cấp một con đường đơn giản để các nhóm tổ chức xây dựng các ứng dụng dựa trên AI ngày càng trở nên cần thiết trong kinh doanh hiện đại", Manuvir Das, Phó chủ tịch phụ trách máy tính doanh nghiệp của Nvidia nói.
Nvidia cũng đã công bố phiên bản thứ tư của nền tảng phần mềm Nvidia AI Enterprise, nhằm cung cấp các công cụ cần thiết để áp dụng và tùy chỉnh AI sáng tạo. Điều này được chia thành nhiều công cụ, bao gồm Nvidia NeMo, một framework sinh ra cho đám mây cho phép người dùng xây dựng và triển khai các mô hình ngôn ngữ lớn (LLM) như ChatGPT hoặc Google Bard.
Nvidia đang tận dụng thị trường AI ngày càng nhiều vào thời điểm phù hợp, không chỉ với Workbench mà còn các công cụ như Nvidia ACE dành cho trò chơi. Với các mô hình AI sáng tạo như ChatGPT đang rất phổ biến hiện nay, có lẽ nhiều nhà phát triển có thể quan tâm đến giải pháp dễ dàng tích hợp một cửa của Nvidia. Tuy nhiên, liệu điều đó có tốt cho chúng ta hay không vẫn còn chưa biết, khi một số người sử dụng AI sáng tạo cho mục đích đáng nghi.
Đừng quên rằng AI có thể trở nên rất khó kiểm soát, như trong những ngày đầu của Bing Chat, và ngày càng nhiều người bắt đầu tạo ra và huấn luyện các mô hình khác nhau này, chúng ta sẽ thấy nhiều hơn những trường hợp hành vi gây vấn đề hoặc kỳ quặc trong tự nhiên. Nhưng giả sử mọi thứ diễn ra tốt, AI Workbench của Nvidia nhất định có thể đơn giản hóa quy trình triển khai AI sáng tạo mới cho rất nhiều công ty.
Ngay sau khi có thông báo vào thứ Tư rằng Microsoft sắp loại bỏ Twitter khỏi nền tảng quảng cáo của mình, CEO Twitter Elon Musk đã đáp trả bằng đe dọa kiện tụng, tuyên bố rằng ông khổng lồ máy tính đã sử dụng trái phép dữ liệu của Twitter, chẳng hạn như các tweet của người dùng, để huấn luyện công cụ trí thông minh nhân tạo (AI) của mình.
"Mọi việc đều là huấn luyện trái phép bằng việc sử dụng dữ liệu Twitter," Musk tweet, thêm rằng: "Đến lúc kiện tụng."
Đọc thêm Hội nghị công nghệ GPU hàng năm hai mùa của Nvidia (GTC) thông thường tập trung vào các tiến bộ trong lĩnh vực trí tuệ nhân tạo (AI), nhưng năm nay, Nvidia đã đáp lại sự tăng trưởng lớn của ChatGPT bằng một loạt GPU mới. Trong số đó, H100 NVL là phiên bản quan trọng nhất, nó kết hợp hai GPU H100 của Nvidia để triển khai Mô hình Ngôn ngữ Lớn (LLM) như ChatGPT.
H100 không phải là GPU mới. Nvidia đã thông báo về nó một năm trước tại GTC, sử dụng kiến trúc Hopper của nó và hứa hẹn giúp tăng tốc suy luận AI trong nhiều tác vụ khác nhau. Mô hình NVL mới với bộ nhớ 94GB khổng lồ được cho là hoạt động tốt nhất khi triển khai LLM ở quy mô lớn, mang lại tốc độ suy luận nhanh hơn gấp 12 lần so với A100 thế hệ trước.
Đọc thêm ChatGPT gây sốt trong vòng sáu tháng qua, nhưng nó không xuất hiện từ đâu. Theo một bài viết trên blog được Microsoft công bố vào thứ Hai, OpenAI, công ty đứng sau ChatGPT, đã liên hệ với Microsoft để xây dựng cơ sở hạ tầng trí tuệ nhân tạo trên hàng nghìn GPU Nvidia hơn năm năm trước.
Đối tác giữa OpenAI và Microsoft đã thu hút nhiều sự chú ý gần đây, đặc biệt sau khi Microsoft đầu tư 10 tỷ đô la vào nhóm nghiên cứu chịu trách nhiệm cho các công cụ như ChatGPT và DALL-E 2. Tuy nhiên, theo Microsoft, cuộc đối tác đã bắt đầu từ lâu. Kể từ đó, theo Bloomberg, Microsoft đã chi "hàng trăm triệu đô la" để phát triển cơ sở hạ tầng hỗ trợ ChatGPT và các dự án như Bing Chat.