Hệ thống AI mới của Google DeepMind đã đạt được điểm số ấn tượng tại cuộc thi toán quốc tế dành cho học sinh giỏi, chỉ thiếu một điểm để giành huy chương vàng. Liệu đây có phải là dấu hiệu cho thấy AI đang tiến gần hơn đến khả năng giải toán của con người?
Mặc dù máy tính được tạo ra để tính toán nhanh hơn bất kỳ con người nào, nhưng toán học trình độ cao vẫn là lĩnh vực độc quyền của con người. Tuy nhiên, một bước đột phá của các nhà nghiên cứu tại Google DeepMind đã đưa các hệ thống AI đến gần hơn bao giờ hết để đánh bại các nhà toán học giỏi nhất.
Cặp đôi hệ thống mới, được gọi là AlphaProof và AlphaGeometry 2, đã phối hợp với nhau để giải quyết các câu hỏi từ Olympiad Toán học Quốc tế, một cuộc thi toán học toàn cầu dành cho học sinh trung học đã được tổ chức từ năm 1959. Kỳ thi Olympiad có dạng sáu câu hỏi khó đến mức khó tin mỗi năm, bao gồm các lĩnh vực bao gồm đại số, hình học và lý thuyết số. Giành được huy chương vàng sẽ đưa bạn vào nhóm những nhà toán học trẻ xuất sắc nhất thế giới.
Nỗ lực kết hợp của hai hệ thống của DeepMind đã không hoàn toàn ở đẳng cấp đó. Sau khi câu trả lời của họ được Giáo sư Timothy Gowers - người chiến thắng huy chương Fields, giải thưởng tương đương Nobel toán học, và bản thân cũng là một huy chương vàng Olympiad - chấm điểm, đội DeepMind đã đạt được 28/42 điểm - đủ cho một huy chương bạc, nhưng thiếu một điểm so với vàng.
Không giống như một nhà toán học là con người, các hệ thống này hoặc là hoàn hảo hoặc là vô vọng. Trong mỗi câu hỏi mà họ giải được, họ đều đạt điểm tuyệt đối, nhưng với hai trong số sáu câu hỏi, họ thậm chí không thể bắt đầu tìm ra câu trả lời. Hơn nữa, DeepMind, không giống như các đối thủ là con người, đã không bị giới hạn thời gian. Trong khi học sinh có chín giờ để giải quyết các vấn đề, thì các hệ thống của DeepMind đã mất ba ngày làm việc suốt ngày đêm để giải một câu hỏi, mặc dù đã giải quyết một câu hỏi khác chỉ trong vài giây.
Hai hệ thống đã giải quyết thử thách này rất khác nhau. AlphaProof, hệ thống đã giải được ba bài toán, hoạt động bằng cách ghép nối một mô hình ngôn ngữ lớn - loại được áp dụng trong các chatbot tiêu dùng - với phương pháp "học tăng cường" chuyên biệt, giống như phương pháp mà DeepMind đã sử dụng để giải quyết trò chơi cờ vây. Bí quyết nằm ở việc tận dụng một phương pháp hiện có được gọi là "toán học hình thức", một tập hợp các quy tắc cho phép bạn viết một chứng minh toán học như một chương trình chỉ có thể chạy nếu nó đúng.
"Những gì chúng tôi cố gắng làm là xây dựng một cây cầu giữa hai lĩnh vực này", Thomas Hubert, người dẫn đầu dự án AlphaProof, cho biết, "để chúng tôi có thể tận dụng các đảm bảo đi kèm với toán học hình thức và dữ liệu có sẵn trong toán học không chính thức. " Sau khi được đào tạo trên một số lượng lớn các bài toán được viết bằng tiếng Anh, AlphaProof đã sử dụng kiến thức của mình để cố gắng tạo ra các chứng minh cụ thể bằng ngôn ngữ hình thức. Bởi vì những chứng minh đó có thể được xác minh là đúng hay không, nên có thể dạy cho hệ thống tự cải thiện. Cách tiếp cận này có thể giải quyết các vấn đề khó, nhưng không phải lúc nào cũng nhanh chóng: mặc dù nó tốt hơn nhiều so với thử và sai đơn giản, nhưng phải mất ba ngày để tìm ra mô hình hình thức chính xác cho một trong những câu hỏi khó nhất trong thử thách.
Hệ thống còn lại, AlphaGeometry 2, cũng kết hợp một mô hình ngôn ngữ với cách tiếp cận thiên về toán học hơn. Nhưng thành công của nó trong lĩnh vực hẹp hơn là các bài toán hình học thật đáng kinh ngạc: nó đã giải quyết được bài toán của mình chỉ trong 16 giây. Và, Gowers nói, đã chọn một con đường đáng ngạc nhiên để làm điều đó. "Đã có một số ví dụ huyền thoại về các bằng chứng [do máy tính hỗ trợ] dài hơn cả Wikipedia. Đây không phải là như vậy: chúng ta đang nói về một kết quả rất ngắn gọn, theo phong cách của con người."
Theo Ánh Viên
Black Myth: Wukong vẫn đang là cái tên có sức...
Tiến sĩ Rafael Frankel chia sẻ định hướng phát triển...
Apple giúp người dùng chuyển danh sách phát nhạc sang...
Thêm vào giỏ hàng thành công!
Xem giỏ hàng