Anh Lê Viết Quốc được cho là người có vai trò quyết định với thành công của thế giới về Xử lý ngôn ngữ tự nhiên nói chung và ChatGPT nói riêng. CEO BKAV Nguyễn Tử Quảng cho biết ông đã tập trung 24h liên tục để tìm ra bản chất đơn giản nhất của phần mềm ChatGPT đang nổi sóng khắp thế giới. Sau khi xâu chuỗi vấn đề, ông Quảng đã phát hiện ra điều “bất ngờ” và “cực thú vị”: Người Việt Nam có vai trò quyết định với thành công của ChatGPT.
Ông Quảng giải thích rằng ChatGPT do công ty OpenAI phát triển dựa trên thuật toán có tên là Transformers (AI model), của đội Google (NASDAQ:GOOGL) Brain phát triển vào năm 2017. Đây cũng là công nghệ lõi giúp Google Dịch có chất lượng cao như hiện nay.
Năm 2011 Google Brain được đồng sáng lập bởi 4 người, trong đó có anh Lê Viết Quốc người Thừa Thiên Huế, Việt Nam. Năm 2014, Lê Viết Quốc phát triển thành công thuật toán xử lý ngôn ngữ tự nhiên có tên là seq2seq.
“Điều thú vị, nhờ thuật toán này của Quốc, Google phát triển một phiên bản nâng cấp với tên gọi Transformers nói trên. Như vậy Lê Viết Quốc có vai trò quyết định với thành công của thế giới về Xử lý ngôn ngữ tự nhiên nói chung và ChatGPT nói riêng”, ông Quảng khẳng định.
Lê Viết Quốc sinh năm 1982 tại một ngôi làng nhỏ ở Hương Thủy (tỉnh Thừa Thiên-Huế). Khu vực anh Quốc sinh sống từng không có điện, nhưng anh thường xuyên đến một thư viện gần nhà để nghiên cứu về phát minh thông qua những trang sách và ôm giấc mơ một ngày nào đó sẽ có những phát minh của riêng mình.
Sau khi tốt nghiệp trường chuyên Quốc học Huế, anh Quốc tiếp tục theo học tại Đại học Quốc gia Australia (Úc) và tốt nghiệp hạng Ưu. Sau đó, anh tiếp tục làm nghiên cứu sinh Tiến sĩ tại Đại học Stanford (Mỹ) về trí tuệ nhân tạo.
Năm 2011, anh Quốc đồng sáng lập Google Brain, cùng với cố vấn Tiến sĩ Andrew Ng, nghiên cứu sinh Google Jeff Dean và nhà nghiên cứu tại Google Greg Corrado. Mục tiêu là khai phá về Học sâu (Deep Learning) trên cơ sở khối lượng dữ liệu khổng lồ của Google. Trước đó, Quốc đã thực hiện một vài nghiên cứu ở Đại học Stanford về Học sâu không giám sát (Unsupervised Deep learning).
Để đạt được các thành tựu đó, Quốc phải vượt lên những phương pháp học sâu đã hiệu quả với hình ảnh và lời nói – thứ có thể phân tích được với các đầu vào có kích thước cố định.
Vào năm 2014, Quốc đề xuất trình tự chuỗi (Seq2seq) học với nhà nghiên cứu Google Ilya Sutskever và Oriol Vinyals. Nó là một khung công cụ - một thư viện các mã lệnh (framework) giải mã bộ mã hóa có mục đích đào tạo các mô hình để chuyển đổi các chuỗi từ một tên miền này sang miền khác, chẳng hạn như chuyển đổi các câu sang các ngôn ngữ khác nhau.
Seq2seq learning đòi hỏi ít sự lựa chọn trong thiết kế kỹ thuật hơn và cho phép hệ thống dịch của Google hoạt động hiệu quả và chính xác trên các tệp dữ liệu khổng lồ. Nó chủ yếu được sử dụng cho các hệ thống dịch máy và được chứng minh là có thể ứng dụng được ở nhiều mảng hơn, bao gồm tóm tắt văn bản, các cuộc hội thoại với trí tuệ nhân tạo, và trả lời câu hỏi.
Cũng trong năm đó, Lê Viết Quốc được Tạp chí Technology Review của MIT vinh danh là một trong những nhà phát minh dưới 35 tuổi xuất sắc nhất thế giới. Nghiên cứu của Quốc cũng nhận được hàng loạt giải thưởng tại các hội nghị quốc tế về trí tuệ nhân tạo và được giới thiệu trên New York Times.
Sau Seq2seq, Quốc tiếp tục phát minh ra Doc2vec – một thuật toán không giám sát sử dụng cho việc hiển thị các nội dung có độ dài cố định từ các đoạn văn bản có độ dài biến đổi, chẳng hạn như câu, đoạn văn và các tài liệu.
Những nỗ lực nghiên cứu của Quốc đã được đền đáp. Trong năm 2016, Google đã công bố hệ thống dịch máy Nơ-ron (Neural Machine Translation System), sử dụng trí tuệ nhân tạo AI để tạo ra các bản dịch tốt hơn và tự nhiên hơn.
Đầu năm 2017, Quốc nhận lời tham gia Hội Đồng Tín thác Đại học Fulbright Việt Nam. Năm 2020, anh đã phát triển chương trình mang tên AutoML-Zero, một chương trình thuật toán bằng phép ước lượng nhờ vào hệ thống AI.
Vì sao CEO Nguyễn Tử Quảng lại nói thành công của ChatGPT là nhờ Lê Viết Quốc?
Transformer là một thuật toán được Google Brain, đơn vị nghiên cứu chuyên sâu về AI của Google, phát minh vào tháng 8/2017.
Thuật toán Transformer đột phá về khía cạnh huấn luyện AI ngôn ngữ. Trước khi có thuật toán này, con người muốn dạy AI, thì phải tạo tập dữ liệu huấn luyện sẵn theo cặp câu hỏi - trả lời (labeling data). AI sẽ chỉ ghi nhớ cặp câu có sẵn mà không hiểu được ý nghĩa của câu văn đó, khác nhau rất lớn giữa học vẹt và học hiểu.
Google đã hào phóng công bố tài liệu chi tiết về thuật toán Transformer công khai cho tất cả mọi người truy cập được. Đồng thời cung cấp quyền sử dụng mở (Open-Source) đối với thuật toán này.
Từ đó, toàn bộ giới khoa học làm AI được hưởng lợi từ phát minh của Google. Trong đó có OpenAI, một công ty thành lập năm 2015 và không có thành tựu gì nổi bật cho tới sau 2017.
Sau khi Google công bố Transformer, chỉ sau vài tháng những AI ngôn ngữ đầu tiên dựa trên thuật toán mới này ồ ạt ra đời. Tháng 1/2018, OpenAI cho ra đời con AI đầu tiên dựa trên Transformer là GPT-1, họ ứng dụng rất nhanh, nhanh hơn cả chính Google.
GPT viết tắt của Generative Pre-trained Transformer nghĩa là "chương trình Tạo Chữ đã được huấn luyện theo phương pháp Transformer".
ChatGPT này được tạo ra với mục đích chính là để "Tạo Chữ". Cụ thể là bạn sẽ chơi trò nối từ với AI, bạn viết một câu, chatbot sẽ đọc câu đó rồi dựa trên kiến thức đang lưu trữ trong bộ nhớ mà "tạo ra chữ" nối tiếp cái câu mà bạn viết.