Trung tuần tháng 05/2016, tại hội nghị Google I/O, Google đã công bố Tensor Processing Unit (TPU) – bộ vi xử lý server chuyên dùng cho trí tuệ nhân tạo AI, cụ thể hơn là ở lĩnh vực máy học (machine learning).
Các tác vụ AI không đòi hỏi số thập phân chính xác như các phép toán khoa học, TPU sẽ tập trung vào số phép tính mà nó có thể thực hiện được trong mỗi giây. Google cho biết, TPU có thể tính nhanh hơn so với các CPU thông thường với mức năng lượng tương đương nhau. Ngoài ra, chip cũng được thiết kế để tiết kiệm không gian nên có thể dễ dàng triển khai nhiều TPU vào khay ổ cứng trong các trung tâm dữ liệu.
Thực tế, Google đã sử dụng TPU phục vụ cho việc nghiên cứu và phát triển machine learning của hãng trong nhiều năm, từ việc cải thiện bản đồ cho đến tạo ra AlphaGo có khả năng đánh cờ thắng người. TPU sẽ tiếp tục phục vụ cho các sản phẩm machine learning và đám mây của Google, hiện chưa rõ Google có kế hoạch mở rộng hay cung cấp TPU cho các công ty khác hay không.
- Từ khóa :
- Google I/O 2016
- ,
- Tensor Processing Unit
Gửi ý kiến của bạn