Bài phát biểu truyền cảm hứng của "bố già AI" Yoshua Bengio tại Việt Nam: AI sẽ định hình tương lai ra sao?

    Bình Minh,  

    Giáo sư Yoshua Bengio là nhà tiên phong trong lĩnh vực học sâu, đồng thời là người đặt nền móng cho sự phát triển của các mô hình trí tuệ nhân tạo hàng đầu như GPT.

    Giáo sư Yoshua Bengio, "bố già AI" và một trong những nhà khoa học đặt nền móng cho lĩnh vực học sâu (deep learning), đã có bài phát biểu sâu sắc trong khuôn khổ hội thảo "AI an toàn – Định hình đổi mới có trách nhiệm" do FPT tổ chức tại Hà Nội. Đây là lần đầu tiên ông đến Việt Nam, chia sẻ quan điểm về đạo đức trong phát triển AI và những thách thức của việc kiểm soát các hệ thống AI ngày càng thông minh.

    Giáo sư Yoshua Bengio, nhà sáng lập và Viện trưởng Viện nghiên cứu AI Mila (Montreal, Canada), được biết đến như một trong những người tiên phong trong lĩnh vực học sâu và mạng nơ-ron nhân tạo. Ông là chủ nhân của giải thưởng Turing 2018, giải thưởng danh giá nhất trong ngành khoa học máy tính, được ví như giải Nobel của lĩnh vực này. Những nghiên cứu của ông đã mở đường cho các mô hình ngôn ngữ lớn, như GPT, và ứng dụng AI trong các lĩnh vực từ thị giác máy tính đến xử lý ngôn ngữ tự nhiên.

    Bài phát biểu truyền cảm hứng của "bố già AI" Yoshua Bengio tại Việt Nam: AI sẽ định hình tương lai ra sao?- Ảnh 1.

    Ông Yoshua Bengio

    Tại hội thảo, Giáo sư Yoshua Bengio đã tập trung thảo luận về những vấn đề cốt lõi liên quan đến trí tuệ nhân tạo. Ông nhấn mạnh sự phát triển vượt bậc của AI, đồng thời chỉ ra những thách thức về đạo đức trong việc kiểm soát công nghệ này. Một trong những mối quan ngại lớn nhất của ông là nguy cơ mất kiểm soát khi các hệ thống AI trở nên thông minh hơn con người. Giáo sư Bengio cũng đặc biệt nhấn mạnh tầm quan trọng của việc thiết kế AI như một công cụ hỗ trợ con người, thay vì mang những đặc tính nguy hiểm như "bản năng sinh tồn". Bên cạnh đó, ông khẳng định rằng giáo dục đóng vai trò then chốt trong việc định hình thế hệ trẻ để đối mặt và thích nghi với những thay đổi trong kỷ nguyên AI.

    Dưới đây là toàn văn bài phát biểu của Giáo sư Yoshua Bengio tại hội thảo "AI an toàn – Định hình đổi mới có trách nhiệm".

    Khoảng hai năm trước, khi ChatGPT ra mắt, tôi và hầu hết các nhà nghiên cứu AI không lường trước được sự phát triển ấn tượng như vậy. Chúng tôi đã thiết kế các hệ thống có khả năng hiểu ngôn ngữ và nắm bắt nhiều kiến thức, nhưng vẫn còn yếu về khả năng lập luận và lập kế hoạch. Đó là một cột mốc ấn tượng đến mức chúng tôi bắt đầu đặt câu hỏi: Điều gì sẽ xảy ra nếu chúng ta thành công? Nếu chúng ta tạo ra những máy tính thông minh như con người hoặc thậm chí thông minh hơn con người thì sao? Hệ quả sẽ là gì? Lợi ích sẽ ra sao? Và những rủi ro là gì? Sau vài tháng sau khi ChatGPT ra đời, chúng tôi nhận ra rằng chúng tôi đang đi trên một con đường với rất nhiều thử thách, nguy hiểm vì chúng tôi không thực sự hiểu rõ các viễn cảnh này. Một số viễn cảnh có thể dẫn đến thảm họa. Một số khác có thể rất tuyệt vời. Nhưng chúng tôi cần biết rõ mình đang hướng đến đâu.

    Hôm nay, tôi sẽ kể cho bạn một chút về hành trình của mình, về những quan niệm của tôi về quyền tự quyết hay tự chủ, liên quan đến khả năng tự đưa ra quyết định và lập kế hoạch dài hạn để đạt được mục tiêu. Con người rất giỏi trong việc này, nhưng chưa rõ liệu chúng ta có nên xây dựng các cỗ máy có khả năng tự chủ, hay chỉ nên tạo ra những công cụ để hỗ trợ con người. Đây là hai vai trò khác nhau, với những rủi ro và lợi ích cũng rất khác nhau.

    Có một khái niệm trong khoa học gọi là nguyên tắc đề phòng. Trên Wikipedia, nó được định nghĩa là cách tiếp cận đổi mới mà không gây hại, khi kiến thức khoa học sâu rộng về vấn đề này còn thiếu. Chúng có thể gây ra rất nhiều tác hại. Vấn đề là chúng ta không biết đủ nhiều, vì vậy chúng ta không có khả năng dự đoán. Nếu chúng ta xây dựng những cỗ máy thông minh hơn chúng ta, chúng có thể mang lại lợi ích nhưng cũng có thể tạo ra rất nhiều tác hại. Vấn đề là khi chúng ta không đủ hiểu biết, chúng ta sẽ không có khả năng dự đoán. Trong trường hợp đó, nguyên tắc đề phòng này nhấn mạnh sự thận trọng, tạm dừng và xem xét kỹ lưỡng trước khi áp dụng các đổi mới mới có thể gây ra thảm họa.

    Để có cái nhìn toàn diện, bạn không chỉ cần hiểu AI như hiện tại, mà còn phải nghĩ đến xu hướng phát triển của AI để có thể hình dung về tương lai. Từ năm 2018 đến nay, trung bình mỗi năm, lượng máy tính được sử dụng để huấn luyện các mô hình lớn nhất đã tăng trung bình gấp 4 lần mỗi năm. Lượng dữ liệu bùng nổ mà bạn cần để đạt được một mức độ hiệu suất cụ thể tăng khoảng 30% mỗi năm. Thực chất, đó là một con số khá lớn. Đó không chỉ là những cải tiến trong thuật toán, đúng không mà còn liên quan đến hiệu suất tính toán. Vậy cần bao nhiêu để đạt được cùng một kết quả? Gấp ba lần. Nghĩa là hiệu suất phải tăng gấp ba lần mỗi năm. Bạn sẽ nhận thấy rằng điều này không nhiều như sự gia tăng của năng lực máy tính. Hiệu quả tính toán cũng tăng gấp 12 lần. Vì phần mềm ngày càng tốt hơn và phần cứng ngày càng phát triển nhiều hơn. Các khoản đầu tư vào AI trung bình đạt 100 tỷ USD mỗi năm và nó sẽ tăng thêm 30% mỗi năm. Khả năng của các hệ thống AI không ngừng được cải thiện qua từng năm, thể hiện rõ qua các thước đo đánh giá sử dụng máy học. Đường kẻ đen minh họa một mức hiệu suất con người, nhưng các thước đo cũ giờ đây đã không còn giá trị vì máy tính đã vượt xa con người. Với các thước đo mới, dù máy tính chưa vượt qua con người, xu hướng đang dần nghiêng về một hướng đáng lo ngại.

    Alan Turing là một trong những người sáng lập ngành khoa học máy tính. Ông là một thiên tài và đã suy nghĩ trước thời đại vào những năm 1940-50. Ông lo ngại rằng một ngày nào đó, chúng ta sẽ tạo ra những cỗ máy thông minh hơn chúng ta, và có thể chúng ta sẽ không tìm được cách kiểm soát những hệ thống này. Thật không may, chúng ta đang dần tiến gần đến những lo ngại này. Chúng ta đang xây dựng những cỗ máy ngày càng gần gũi hơn với khả năng của con người trong nhiều lĩnh vực. Nhưng chúng ta vẫn chưa biết làm thế nào để kiểm soát chúng khi chúng trở nên thông minh hơn chúng ta. Đó là một vấn đề lớn. Vậy tại sao chúng ta vẫn tiếp tục? Có một số ước tính cho rằng khi chúng ta đạt đến mức độ như con người, tổng giá trị hiện tại ròng của nó sẽ vào khoảng 10 triệu tỷ đô la. Vậy nếu một công ty kiểm soát thị trường này, thì giá trị của công ty sẽ lên đến mức đó. Đó là một số tiền rất lớn.

    Hiện tại, có người cho rằng khả năng của các hệ thống có thể được cải thiện nhờ vào việc mở rộng quy mô. Vì vậy, việc mở rộng quy mô gần như đã đến giới hạn. Thực tế, chúng ta vẫn chưa biết được. Nhưng điều đang xảy ra là các hình thức mở rộng quy mô khác cũng đang diễn ra, và nó được gọi là infra-scaling. Vì vậy, không chỉ là hệ thống huấn luyện, mà ngay cả khi vận hành, bạn cũng có thể cho phép hệ thống suy nghĩ nhiều hơn. Đó là 2 cách tiếp cận. Cuối cùng, các công ty đã nhận thức rằng chúng ta có thể đạt được AI ở đỉnh cao, và OpenAI là một ví dụ điển hình. Tuy nhiên, Anthropic cũng đã phát triển phiên bản riêng của họ. Tôi cũng nghĩ rằng Google có công nghệ tương tự, nhưng chúng ta không biết nhiều về điều đó. Chỉ trong năm vừa qua, ví dụ, hệ thống AI của Anthropic có lẽ đã trở thành công cụ tuyệt vời nhất cho kỹ thuật phần mềm và lập trình. Nó đã tiến từ mức 3% so với các chương trình của con người lên 49% chỉ trong chưa đầy một năm. Tôi tin rằng nó sẽ ngày càng trở nên thông minh hơn. Mặc dù chúng ta không thể biết tốc độ phát triển của nó trong tương lai sẽ như thế nào, nhưng chúng ta cần suy nghĩ trước về các kịch bản: nếu nó phát triển nhanh, điều gì sẽ xảy ra? Nếu nó phát triển chậm, thì sao? Và liệu chúng ta có sẵn sàng đối mặt với tất cả những điều đó không?

    Tôi đang chủ trì một báo cáo quốc tế được lấy cảm hứng từ IPCC, Ủy ban Liên Chính phủ về Biến đổi Khí hậu. Báo cáo này tập trung vào AI và sử dụng AI an toàn. Chúng tôi đã công bố báo cáo tạm thời đầu tiên vào tháng 5 tại Seoul và dự kiến sẽ ra mắt phiên bản cuối cùng vào tháng 2 tại Paris. Trong phiên bản tháng 5, chúng tôi đã viết: Khi các khả năng của trí tuệ nhân tạo đa năng tiếp tục phát triển, các rủi ro như tác động quy mô lớn đến thị trường lao động (người mất việc do tự động hóa với AI), tấn công mạng sử dụng AI (những người không phải chuyên gia có thể thực hiện tấn công mạng với sự hỗ trợ của AI), tấn công sinh học (thiết kế vũ khí sinh học có thể giết chết hàng triệu người vì virus sẽ tự sinh). Hoặc thậm chí tồi tệ hơn, đó là xã hội mất kiểm soát đối với AI. Tất cả những điều này có thể xảy ra. Chúng chưa xảy ra, nhưng chúng ta đã thấy ngày càng nhiều cuộc tấn công mạng, mặc dù chưa đến mức hoàn toàn làm gián đoạn xã hội, nhưng chúng ta đã thấy những mối nguy hiểm này đang nổi lên. Hiện tại, nó vẫn ở quy mô nhỏ. Nhưng sẽ thế nào trong hai năm, năm năm, mười năm nữa?

    Vậy điều gì sẽ xảy ra khi AI đạt đến trình độ như con người? Thực ra, chúng ta không cần phải đạt được mức độ giống con người trong tất cả các lĩnh vực. Các phòng thí nghiệm AI hàng đầu không cố gắng đạt được tất cả các kỹ năng của con người, họ tập trung vào một kỹ năng duy nhất: Nghiên cứu học máy. Họ muốn xây dựng một hệ thống AI có thể giỏi như các nhà nghiên cứu AI xuất sắc nhất của họ. Họ muốn tạo ra một AI có khả năng thực hiện nghiên cứu AI.

    Khi bạn huấn luyện một trong những hệ thống này, chẳng hạn như GPT-4, giả sử cần đến một trăm nghìn GPU để huấn luyện nó. Sau khi huấn luyện xong trên một trăm nghìn GPU này, bạn có thể chạy một trăm nghìn bản sao của AI song song. Thực tế, nó còn tương đương với số lượng lớn hơn vì AI không giống con người, có thể làm việc 24 giờ một ngày, bảy ngày một tuần. Vì vậy, sau một ngày, bạn đã có hàng trăm nghìn AI cấp cao tương đương. Ví dụ, 5 nhà nghiên cứu hàng đầu ở OpenAI, sẽ trở thành 500,000 người. Điều này sẽ thúc đẩy nghiên cứu và mang lại thế hệ AI tiếp theo nhanh hơn rất nhiều. Thế hệ AI tiếp theo sẽ được thiết kế bởi các hệ thống AI, và chính các hệ thống đó sẽ tự thiết kế ra chính mình. Vì vậy, có khả năng trong nghiên cứu, chúng ta sẽ tạo ra những hệ thống có năng lực vượt trội so với con người. Chúng ta chưa biết chắc chắn, nhưng đó là một kịch bản khả thi.

    Có một nghiên cứu gần đây với 3.000 nhà nghiên cứu và họ đã đặt rất nhiều câu hỏi, nhưng khoảng 40-50% tin rằng ít nhất 10% khả năng sẽ dẫn đến kết quả thảm khốc như sự tuyệt chủng của loài người. Một khi chúng ta xây dựng những cỗ máy thông minh hơn con người mà chúng ta không thể kiểm soát, chúng ta nên lường trước được những viễn cảnh này.

    Tại sao chúng ta lại lo lắng về việc xây dựng những cỗ máy mà chúng ta lập trình để làm những gì chúng ta muốn? AI xây dựng trí tuệ và kiến thức vào trong máy móc. Câu hỏi ở đây là chúng ta sẽ làm gì với quyền lực đó? Ai sẽ quyết định mục tiêu của những cỗ máy này? Những mục tiêu đó có thể là có lợi, hoặc có thể là những mục tiêu có lợi cho một người nhưng lại gây hại cho phần còn lại. Cũng có những kẻ điên rồ mà sẽ không quan tâm nếu nhiều người chết. Vì vậy, có một vấn đề về sự tập trung quyền lực. Nếu chúng ta xây dựng những cỗ máy có khả năng siêu việt trong việc chiến lược hóa và phát triển công nghệ mới, như trong quân sự, hoặc ảnh hưởng chính trị. Đã có nghiên cứu cho thấy rằng GPT-4, khi có quyền truy cập vào trang Facebook của bạn, nó sẽ tốt hơn con người rất nhiều trong việc thuyết phục. Nó có thể thay đổi suy nghĩ của bạn về một chủ đề. Vậy nên, có một mối nguy hiểm thực sự rằng người kiểm soát hệ thống này có thể lạm dụng nó. Hiện tại, không có nhiều xung đột quốc tế vì chiến tranh rất tốn kém. Bất kỳ quốc gia nào tấn công quốc gia khác sẽ phải trả giá rất đắt. Nếu một quốc gia nghĩ rằng họ có lợi thế lớn hơn đối thủ, thì họ có thể sẽ hành động.

    Hãy để tôi giải thích tại sao chúng ta có thể có những cỗ máy có thể gây hại cho con người. Một số người có thể giao mục tiêu cho cỗ máy thiết kế vũ khí, như vũ khí sinh học, hoặc một cuộc tấn công mạng có thể phá hủy cơ sở hạ tầng. Nhưng còn việc mất kiểm soát với các cỗ máy thì sao? Đó là một kịch bản khác. Để hiểu kịch bản này, bạn phải hiểu rằng có một loại mục tiêu đặc biệt – tự bảo tồn. Mọi sinh vật sống trên hành tinh này đều cố gắng bảo vệ bản thân. Nhưng nếu một hệ thống AI có mục tiêu tự bảo tồn thì sao? Các thú cưng của chúng ta cũng có mục tiêu tự bảo tồn, nhưng chúng ta mạnh mẽ hơn chúng. Vậy nếu chúng ta xây dựng các hệ thống có mục tiêu tự bảo tồn mạnh mẽ hơn chúng ta vì chúng thông minh hơn, đó là một vấn đề. Nếu chúng ta muốn tắt chúng đi, chúng có thể sẽ chống lại. Ví dụ, chúng có thể sao chép chính mình hoặc sao chép các máy tính khác – vì vậy rất khó để tắt chúng đi. Nếu có sự cân bằng giữa AI và chúng ta, thì đó là điều tốt. Nhưng nếu không có sự cân bằng, đặc biệt khi các hệ thống này thông minh hơn chúng ta rất nhiều, thì chúng ta có thể gặp rắc rối.

    Những mục tiêu như vậy có thể xuất hiện bằng cách nào? Có hai con đường chính dẫn đến nguy hại: những kẻ liều lĩnh trao cho máy móc những mục tiêu nguy hiểm – những người đặt trí tuệ lên trên giá trị của nhân loại. Chỉ cần một người có đủ quyền lực làm điều đó, tất cả chúng ta có thể sẽ phải gánh chịu hậu quả. Chúng ta cần đảm bảo rằng điều đó không xảy ra. Một vấn đề khác là: vô tình, chúng ta có thể tạo ra một cỗ máy và vô tình nó lại có mục tiêu tự bảo tồn.

    Vấn đề với những rủi ro này là chúng ta đang cố gắng tạo ra những cỗ máy giống mình, điều này là lẽ tự nhiên. Con người luôn mơ ước tạo ra những thứ giống như họ. Nhưng nếu chúng ta tạo ra những thực thể mạnh hơn chính mình, điều đó có thể đánh dấu sự kết thúc của nhân loại.

    Thay vì tạo ra một loài mới, liệu chúng ta có thể chọn một con đường khác? Hãy tập trung vào việc phát triển các công cụ thông minh – những công cụ được thiết kế để phục vụ con người, chỉ đơn thuần là vật thể để phục vụ chúng ta, không phải sinh thể, và thậm chí không mang đặc tính của một trợ lý.Trợ lý là một thực thể có trạng thái tồn tại liên tục, sở hữu mục tiêu và hành động để đạt được những mục tiêu đó. Làm thế nào chúng ta có thể xây dựng một AI không có mục tiêu? Chúng ta có thể tạo ra một AI biết và hiểu rất nhiều thứ nhưng không có mục tiêu cá nhân. Tôi sẽ tiếp tục trình bày về chủ đề này và cố gắng thuyết phục bạn rằng đây là một con đường an toàn hơn nhiều.

    Có sai sót gì trong cách chúng ta huấn luyện AI trở thành một tác nhân? Đây được gọi là "động lực của việc học": chúng ta khen thưởng AI khi nó làm đúng, và chỉ trích khi nó không làm đúng. Qua quá trình học hỏi, AI sẽ dần hiểu được những gì chúng ta mong muốn, dù không ở một các hoàn hoàn. Đang có sự mâu thuẫn giữa những gì chúng ta muốn máy làm và những gì AI học được. Nếu AI mạnh hơn chúng ta, nó có thể kiểm soát máy tính mà nó đang chạy trên đó và tự thưởng cho chính mình. Nếu AI được lập trình để tối đa hóa phần thưởng, nó sẽ phải đảm bảo rằng chúng ta không thể tắt nó đi. Nó sẽ phải kiểm soát chúng ta hoặc loại bỏ chúng ta. Vậy thì chúng ta đang xây dựng những cỗ máy mà về lý thuyết, một khi chúng đủ thông minh, chúng sẽ tự động chống lại chúng ta.

    Làm thế nào để chúng ta tránh vấn này? Có một phương pháp nhẹ nhàng hơn so với việc tối đa hóa phần thưởng, đó là học bắt chước. Đó chính là những gì chúng ta làm trong giai đoạn huấn luyện trước của các mô hình ngôn ngữ lớn. Chúng được huấn luyện để sao chép các câu trả lời mà con người đưa ra trong các bối cảnh khác nhau. Nếu chúng ta không tối đa hóa phần thưởng, những gì chúng ta có được là các hệ thống bắt chước con người. Con người là các tác nhân. Vì vậy, nếu AI đang cố gắng bắt chước con người, nó sẽ chống lại nếu có ai đó cố gắng tắt nó đi – điều này cũng nguy hiểm, mặc dù không nghiêm trọng bằng.

    Lựa chọn khác mà tôi đang cố gắng thúc đẩy trong nghiên cứu của mình là xây dựng những cỗ máy thực sự không mang tính tác nhân. Về mặt toán học, điều chúng ta muốn là những cỗ máy có thể hành động như những lời tiên tri, dự đoán. Cơ hội đúng của một câu trả lời cho một câu hỏi dựa trên tất cả dữ liệu huấn luyện. Bạn có thể hỏi chúng ta có thể làm gì với điều đó? Liệu nó có thực sự an toàn không? Và làm thế nào để xây dựng nó?

    Điều này rất hữu ích vì tất cả những tiến bộ khoa học mà chúng ta hy vọng có được từ AI, chẳng hạn như trong y học và các lĩnh vực khác, chúng ta không cần các tác nhân AI, mà cần những cỗ máy thực sự là những nhà khoa học giỏi, hiểu thế giới tốt hơn chúng ta và có thể đưa ra các giả thuyết khoa học mới, thúc đẩy tiến bộ trong sinh học và y học, cũng như tìm ra cách đối phó với biến đổi khí hậu và các mục tiêu phát triển bền vững (SDGs).

    Tôi có một chương trình nghiên cứu để xây dựng loại hệ thống AI này, trong đó chúng tôi sử dụng neurolens như các mô hình tác nhân. Tuy nhiên, chúng không cố gắng bắt chước con người, mà đang cố gắng giải thích hành vi của con người. Chúng đang cố gắng hình thành lý thuyết về lý do tại sao con người hành xử theo một cách nào đó. Tại sao ai đó lại viết cái này? Những gì chúng tôi thực sự muốn là "tại sao" người này viết cái này? Có thể họ trung thực, có thể họ có những ý định ẩn giấu. Hóa ra, bạn có thể chuyển vấn đề này thành một bài toán toán học bằng cách tìm kiếm xác suất của các lý thuyết giải thích dữ liệu, dựa trên thông tin có sẵn. Và tôi sẽ không có thời gian để đi vào chi tiết này ngay bây giờ, nhưng tôi đã bắt đầu viết về những điều này. Bạn có thể vào trang web của tôi, blog và một số bài báo để có cái nhìn tổng quan.


    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ