'Yêu nhầm bạn thân': Hình ảnh đẹp nhưng ít bất ngờ
- hôm nay, 08:14
- 24h.com.vn
- 0
Trong một bước tiến đột phá, các nhà nghiên cứu Trung Quốc đã tạo ra một đối thủ nguồn mở của ChatGPT chỉ trong vòng 2 tháng, khiến cả thung lũng Silicon phải dè chừng. DeepSeek, phòng thí nghiệm trí tuệ nhân tạo (AI) đứng sau sáng kiến này, đã công bố mô hình ngôn ngữ lớn (LLM) DeepSeek-V3 vào cuối tháng 12/2024. Mô hình này được xây dựng với chi phí chỉ 5,58 triệu USD, một con số cực kỳ khiêm tốn so với các đối thủ từ thung lũng Silicon, và được đào tạo trên lượng dữ liệu khổng lồ với hiệu suất ấn tượng.
DeepSeek-V3 là một mô hình ngôn ngữ lớn với 175 tỷ tham số, được huấn luyện trên khoảng 570GB dữ liệu văn bản từ các nguồn như sách, bài báo trực tuyến, Wikipedia và các trang web khác. Điều đáng chú ý là mô hình này chỉ cần 2.000 GPU của Nvidia để xử lý dữ liệu đào tạo, so với 10.000 GPU mà ChatGPT cần. Điều này cho thấy sự tối ưu hóa đáng kể trong thuật toán và hiệu quả sử dụng tài nguyên.
Không có bình luận