Nguồn: “Why do Nvidia’s chips dominate the AI market?”, The Economist, 27/02/2024.
Biên dịch: Đỗ Đặng Nhật Huy
Không công ty nào được hưởng lợi nhiều từ làn sóng trí tuệ nhân tạo (AI) như Nvidia. Kể từ tháng 1 năm 2023, giá cổ phiếu của nhà sản xuất chip này đã tăng gần 450%. Với tổng giá trị cổ phiếu lên tới gần 2 nghìn tỷ USD, Nvidia hiện là công ty có giá trị lớn thứ ba ở Mỹ, chỉ sau Microsoft và Apple. Doanh thu của công ty trong quý gần đây nhất là 22 tỷ USD, tăng từ mức 6 tỷ USD cùng kỳ năm ngoái. Hầu hết các nhà phân tích đều kỳ vọng Nvidia, công ty kiểm soát hơn 95% thị trường chip AI chuyên dụng, sẽ tiếp tục phát triển với tốc độ chóng mặt trong tương lai gần. Nhưng chính xác thì điều gì làm cho chip của họ thật đặc biệt?
Chip AI của Nvidia, còn được gọi là bộ xử lý đồ họa (GPU) hoặc “bộ tăng tốc,” ban đầu được thiết kế cho trò chơi điện tử. Loại chip này sử dụng quá trình xử lý song song, chia mỗi phép tính thành các phần nhỏ hơn, sau đó phân phối chúng giữa nhiều “lõi” — bộ não của bộ xử lý — trong chip. Điều này có nghĩa là GPU có thể chạy các phép tính nhanh hơn nhiều so với khi làm một cách tuần tự. Cách tiếp cận này lý tưởng cho việc chơi game: đồ họa sống động như thật đòi hỏi vô số pixel được hiển thị đồng thời trên màn hình. Chip hiệu năng cao của Nvidia hiện chiếm tới 4/5 GPU chơi game.
Thật may mắn cho Nvidia, chip của họ còn có những ứng dụng rộng rãi hơn nhiều: từ khai thác tiền điện tử cho đến xe tự lái, và quan trọng nhất là huấn luyện mô hình AI. Các thuật toán học máy, nền tảng của AI, sử dụng một nhánh của học sâu gọi là mạng lưới thần kinh nhân tạo. Trong các mạng này, máy tính sẽ học các quy tắc và hình thái từ cơ sở dữ liệu huấn luyện khổng lồ. Việc huấn luyện mạng bao gồm các phép tính quy mô lớn — nhưng vì các tác vụ có thể được chia thành các phần nhỏ hơn nên xử lý song song trong GPU là một cách lý tưởng để tăng tốc mọi thứ. Một GPU hiệu suất cao có thể có hơn một nghìn lõi, do đó nó có thể xử lý hàng nghìn phép tính cùng một lúc.
Khi Nvidia nhận ra các bộ tăng tốc của họ có hiệu quả cao trong việc đào tạo mô hình AI, họ đã tập trung vào việc tối ưu hóa chúng cho thị trường đó. Các chip của Nvidia đã bắt kịp với các mô hình AI phức tạp hơn bao giờ hết: chỉ trong một thập niên đến năm 2023, Nvidia đã tăng tốc độ tính toán lên gấp 1.000 lần.
Nhưng mức định giá tăng cao của Nvidia không chỉ đến từ chip nhanh hơn. Họ còn có lợi thế cạnh tranh trong hai lĩnh vực khác. Một là kết nối mạng. Khi các mô hình AI tiếp tục phát triển, các trung tâm dữ liệu chạy chúng cần hàng nghìn GPU được kết nối với nhau để tăng sức mạnh xử lý (hầu hết các máy tính chỉ dùng được một số ít GPU). Nvidia giải quyết nhu cầu này bằng cách kết nối các GPU của họ thông qua một mạng hiệu suất cao dựa trên sản phẩm của Mellanox, nhà cung cấp công nghệ mạng được họ mua lại vào năm 2019 với giá 7 tỷ USD. Điều này cho phép họ tối ưu hóa hiệu suất của mạng chip theo cách mà các đối thủ không thể sánh được.
Thế mạnh còn lại của Nvidia là CUDA, một nền tảng phần mềm cho phép khách hàng tinh chỉnh hiệu suất của bộ xử lý. Nvidia đã đầu tư vào phần mềm này từ giữa những năm 2000 và từ lâu đã khuyến khích các nhà phát triển sử dụng nó để xây dựng và thử nghiệm các ứng dụng AI. Điều này đã làm cho CUDA trở thành tiêu chuẩn trong ngành.
Tỷ suất lợi nhuận hấp dẫn của Nvidia và đà tăng trưởng nhanh chóng của thị trường bộ tăng tốc AI — dự kiến đạt 400 tỷ USD mỗi năm vào năm 2027 — đã thu hút các đối thủ cạnh tranh. Amazon và Alphabet đang chế tạo chip AI cho trung tâm dữ liệu của họ. Các nhà sản xuất chip và công ty khởi nghiệp lớn khác cũng muốn đòi Nvidia chia miếng bánh. Vào tháng 12 năm 2023, AMD, một nhà sản xuất chip khác, đã tiết lộ một con chip mạnh gần gấp đôi con chip tiên tiến nhất của Nvidia.
Nhưng ngay cả việc xây dựng phần cứng tốt hơn cũng có thể vẫn chưa đủ. Nvidia thống trị chip AI vì họ cung cấp những con chip tốt nhất, bộ kết nối mạng tốt nhất, và phần mềm tốt nhất. Bất kỳ đối thủ cạnh tranh nào muốn thay thế gã khổng lồ bán dẫn này sẽ phải đánh bại họ ở cả ba lĩnh vực, một yêu cầu rất cao./.