Meta công bố chip AI thế hệ mới
Sau hàng tỷ USD đổ vào cuộc đua trí tuệ nhân tạo (AI), ngày 10/4/2024, nền tảng Meta đã công bố những thành tựu mới nhất của mình trong việc sản xuất chip AI thế hệ mới – MTIA (Training and Inference Accelerator) để cung cấp năng lượng cho các dịch vụ AI, đồng thời giảm sự phụ thuộc vào Nvidia và các công ty bên ngoài.
Được gọi là "Bộ tăng tốc suy luận và đào tạo Meta", MTIA thế hệ tiếp theo, phiên bản kế thừa của MTIA v1 ra mắt năm 2023, chip này được thiết kế để hoạt động tốt nhất với các mô hình đề xuất và xếp hạng của Meta. Nó có thể giúp việc đào tạo và suy luận, hay còn gọi là nhiệm vụ lý luận thực tế, dễ dàng hơn. MTIA là một phần quan trọng trong kế hoạch dài hạn nhằm xây dựng cơ sở hạ tầng xoay quanh cách sử dụng AI trong các dịch vụ của Meta. Chip mới của Meta có thể hoạt động với cơ sở hạ tầng công nghệ hiện tại.
Trước đó, Meta đã công bố MTIA v1 vào tháng 5/2023, tập trung cung cấp các chip này cho các trung tâm dữ liệu. Chip MTIA thế hệ tiếp theo có thể cũng sẽ nhắm tới các trung tâm dữ liệu. Hiện tại, MTIA chủ yếu đào tạo các thuật toán xếp hạng và đề xuất, nhưng Meta cho biết mục tiêu cuối cùng là mở rộng khả năng của chip để bắt đầu đào tạo AI tổng quát giống như các mô hình ngôn ngữ lớn Llama.
So với MTIA v1 được xây dựng trên quy trình 7nm thì MTIA thế hệ tiếp theo là 5nm. MTIA thế hệ tiếp theo là một thiết kế vật lý lớn hơn, có nhiều lõi xử lý hơn so với phiên bản trước. Mặc dù tiêu thụ nhiều điện năng hơn - 90W so với 25W - nhưng nó cũng có nhiều bộ nhớ trong hơn và chạy ở tốc độ xung nhịp trung bình cao hơn. Meta cho biết MTIA thế hệ tiếp theo hiện đang có mặt ở 16 khu vực trung tâm dữ liệu của công ty và mang lại hiệu suất tổng thể tốt hơn gấp 3 lần so với MTIA v1.
Meta đang chi hàng tỷ USD cho nỗ lực AI, một phần được dùng để tuyển dụng các nhà nghiên cứu AI. Nhưng một phần lớn hơn đang được dành để phát triển phần cứng, đặc biệt là chip để chạy và huấn luyện các mô hình AI của Meta. Công ty cũng đang chi hàng tỷ USD để mua các chip AI khác. Giám đốc điều hành Meta Mark Zuckerberg năm nay cho biết công ty có kế hoạch mua khoảng 350.000 chip H100 hàng đầu từ Nvidia. Ông Zuckerberg cho biết Meta có kế hoạch tích lũy số lượng tương đương 600.000 chip H100 trong năm nay. Tuy nhiên, dường như công ty này đang không đạt được tiến độ như mong muốn.
Nhóm nghiên cứu AI của Meta đang phải chịu áp lực cắt giảm chi phí. Công ty dự kiến chi khoảng 18 tỷ USD vào cuối năm 2024 để đào tạo và chạy các mô hình AI tổng quát. Nhưng trong khi Meta vẫn loay hoay với những con chip, thì các đối thủ khác đã đi được một quãng đường rất xa. Google đã sản xuất chip tùy chỉnh thế hệ thứ năm để đào tạo các mô hình AI. Amazon có một số dòng chip AI tùy chỉnh, và Microsoft năm ngoái đã nhảy vào cuộc cạnh tranh với Bộ tăng tốc AI Azure Maia và CPU Azure Cobalt 100.
https://vista.gov.vn/