THỜI BÁO VIỆT - ÚC
Gắn kết - Hội nhập - Phát triển
Trang mạng “The Strategist” đăng bài viết có tựa đề “Làm thế nào để chiến thắng trong cuộc đua trí tuệ nhân tạo (AI) nói chung và không hủy diệt loài người” của chuyên gia Albert Zhang, nội dung như sau:
Năm 2016, mô hình trí tuệ nhân tạo AlphaGo của DeepMind đánh bại nhà vô địch cờ vây Lee Sedol ở Seoul, Hàn Quốc. Sự kiện đó là một cột mốc quan trọng, chứng minh rằng một mô hình AI có thể đánh bại một trong những kỳ thủ cờ vây vĩ đại nhất thế giới, một kỳ tích từng được đánh giá là không thể. Mô hình trí tuệ nhân tạo này không chỉ đưa ra những nước cờ thông minh mà đôi khi những cử chỉ và biểu hiện của nó rất tự nhiên và giống với con người.
Các nhà khoa học và các nhà lãnh đạo thế giới khác đã từng cảnh báo và bảy năm sau, cuộc chạy đua kiểm soát và quản lý AI vẫn tiếp tục diễn ra. Trong tháng qua, Tổng thống Mỹ Joe Biden đã ban hành pháp lệnh về an toàn AI, G7 công bố Quy trình AI Hiroshima và 28 quốc gia đã ký Tuyên bố Bletchley tại Hội nghị thượng đỉnh An toàn AI tại Anh. Ngay cả Đảng Cộng sản Trung Quốc (ĐCSTQ) cũng đang tìm cách thể hiện vai trò lãnh đạo với Sáng kiến Quản trị AI Toàn cầu.
Những bước phát triển này cho thấy các chính phủ đang bắt đầu xem xét một cách nghiêm túc những lợi ích và rủi ro tiềm tàng của AI. Nhưng khi vấn đề an ninh của AI trở nên rõ ràng hơn, điều quan trọng là các nền dân chủ phải vượt qua các hệ thống chính trị độc tài để đảm bảo rằng các mô hình AI trong tương lai phản ánh các giá trị dân chủ và không tuân theo ý muốn không đoán trước của những kẻ độc tài. Đồng thời, các quốc gia phải tiến hành một cách thận trọng, có đủ biện pháp phòng ngừa và đóng cửa các dự án AI không an toàn khi cần thiết.
Liệu các mô hình AI có vượt trội hơn con người trong tương lai gần và gây ra những rủi ro tiềm ẩn hay không vẫn là một câu hỏi gây tranh cãi. Đối với một số chuyên gia đã nghiên cứu các công nghệ này trong nhiều thập kỷ, hiệu suất của các mô hình AI như AlphaGo và ChatGPT là bằng chứng cho thấy nền tảng chung cho AI ở cấp độ con người đã đạt được và một hệ thống AI thông minh hơn con người trong nhiều nhiệm vụ sẽ có khả năng được tạo ra trong tương lai. Những hệ thống đó được gọi là trí tuệ nhân tạo tổng quát (AGI), siêu trí tuệ nhân tạo hoặc siêu AI.
Ví dụ: hầu hết các mô hình AI hiện nay đều sử dụng mạng lưới thần kinh, một kỹ thuật học máy cũ được tạo ra vào những năm 1940, lấy cảm hứng từ mạng lưới thần kinh sinh học của não động vật. Khả năng của các mạng thần kinh hiện đại như AlphaGo không được đánh giá cao cho đến khi các chip máy tính được sử dụng chủ yếu để chơi game và làm các video, được gọi là bộ xử lý đồ họa, trở nên đủ mạnh trong thế kỷ 21 để xử lý các tính toán cần thiết cho các tác vụ cụ thể ở cấp độ con người.
Bước tiếp theo hướng tới AGI là sự xuất hiện của các mô hình ngôn ngữ lớn, chẳng hạn như GPT-4 của OpenAI, được tạo bằng cách sử dụng một phiên bản mạng thần kinh được gọi là "máy biến đổi". Phiên bản chatbot trước của OpenAI, GPT-3, đã khiến mọi người ngạc nhiên vào năm 2020 khi tạo ra văn bản không thể phân biệt được với văn bản do con người viết và thực hiện một loạt tác vụ dựa trên ngôn ngữ với ít hoặc không có ví dụ. GPT-4, mô hình mới nhất, đã thể hiện khả năng suy luận ở cấp độ con người và vượt trội hơn những người làm bài kiểm tra trong kỳ thi luật sư ở Mỹ, một bài kiểm tra nổi tiếng là khó đối với các luật sư. Các phiên bản tương lai dự kiến sẽ có khả năng hiểu, học hỏi và áp dụng kiến thức ở mức độ ngang bằng hoặc cao hơn con người trong tất cả các nhiệm vụ.
AGI sẽ là công nghệ đột phá nhất mà nhân loại đã tạo ra. Một hệ thống AI có thể tự động hóa tư duy phân tích, khả năng sáng tạo và giao tiếp của con người ở quy mô lớn, đồng thời tạo ra những hiểu biết sâu sắc, nội dung và báo cáo từ các nguồn dữ liệu khổng lồ sẽ mang lại sự thay đổi lớn về kinh tế và xã hội. Đó sẽ là khoảnh khắc Oppenheimer của thế hệ chúng ta với những tác động chiến lược bên cạnh các ứng dụng quân sự và an ninh. Quốc gia đầu tiên triển khai thành công AGI sẽ có lợi thế đáng kể trong mọi hoạt động khoa học và kinh tế trên các lĩnh vực. Vì những lý do đó, sự cạnh tranh địa chính trị lâu dài giữa các nền dân chủ tự do và các nước độc tài đang thúc đẩy một cuộc chạy đua vũ trang nhằm phát triển và kiểm soát AGI.
Cốt lõi của cuộc đua này là sự cạnh tranh về ý thức hệ, thúc đẩy các chính phủ ưu tiên hỗ trợ phát triển AGI ở nước họ trước tiên, vì công nghệ này có thể sẽ phản ánh giá trị và đặt ra tiêu chuẩn cho các ứng dụng trong tương lai. Điều này đặt ra những câu hỏi quan trọng cách thế giới nhìn nhận về AGI. AGI có nên coi trọng quyền tự do ngôn luận chính trị hơn sự ổn định xã hội không? Hay nó nên phù hợp với một xã hội pháp quyền hoặc xã hội pháp trị? Với các phương pháp hiện tại, các nhà nghiên cứu thậm chí còn không biết về khả năng có thể xác định trước những giá trị đó trong hệ thống AGI trước khi chúng được tạo ra.
Điều hứa hẹn là cho đến nay các trường đại học, tập đoàn và nhóm nghiên cứu dân sự ở các nền dân chủ đang dẫn đầu sự phát triển của AGI. Các công ty như OpenAI, Anthropic và DeepMind là những cái tên quen thuộc và đã hợp tác chặt chẽ với Chính phủ Mỹ để xem xét một loạt chính sách an toàn AI. Nhưng các công ty khởi nghiệp, tập đoàn lớn và nhóm nghiên cứu phát triển AGI ở Trung Quốc, dưới sự cai trị độc tài của ĐCSTQ, đang nhanh chóng bắt kịp và tạo ra sự cạnh tranh đáng kể. Trung Quốc chắc chắn có tài năng, nguồn lực và tham vọng nhưng phải đối mặt với những rào cản pháp lý bổ sung và thiếu nguồn dữ liệu tiếng Trung nguồn mở, chất lượng cao. Ngoài ra, các mô hình ngôn ngữ lớn đe dọa sự độc quyền của ĐCSTQ trong việc kiểm soát thông tin trong nước bằng cách đưa ra những thế giới quan thay thế cho hoạt động tuyên truyền của nhà nước.
Tuy nhiên, chúng ta không nên đánh giá thấp khả năng đổi mới của các doanh nhân Trung Quốc trong những điều kiện pháp lý khó khăn. Nếu một nhóm nghiên cứu ở Trung Quốc, theo Luật Tình báo Quốc gia của ĐCSTQ, trước tiên phát triển và chế ngự các khả năng AGI hoặc cận AGI, điều đó sẽ củng cố thêm quyền lực của đảng trong việc đàn áp người dân trong nước và khả năng can thiệp vào chủ quyền của các quốc gia khác. Hệ thống an ninh nhà nước của Trung Quốc hoặc Quân Giải phóng Nhân dân có thể triển khai nó để tăng cường các hoạt động gián điệp mạng hoặc tự động hóa việc phát hiện các lỗ hổng zero-day. Chính phủ Trung Quốc có thể đưa nó vào vai trò cố vấn siêu phàm trong bộ máy quan liêu để đưa ra các quyết định và tuyên truyền về hoạt động, quân sự, kinh tế hoặc chính sách đối ngoại tốt hơn. Các công ty Trung Quốc có thể bán dịch vụ AGI cho các cơ quan chính phủ nước ngoài và các công ty "cửa sau" tham gia vào hệ thống của họ hoặc ngấm ngầm ngăn chặn nội dung và chủ đề ở nước ngoài theo chỉ đạo của các cơ quan an ninh Trung Quốc.
Đồng thời, một cuộc chạy đua vũ trang AGI không được kiểm soát giữa các hệ thống dân chủ và độc tài có thể làm trầm trọng thêm nhiều rủi ro khác nhau, bằng cách tạo điều kiện cho các tác nhân nhà nước và phi nhà nước sử dụng sai mục đích trong tương lai hoặc khai thác liên kết kém giữa các mục tiêu của chính AI. Ví dụ, AGI có thể loại bỏ các trở ngại đối với những kẻ độc tài có kiến thức để phát triển vũ khí sinh học hoặc tăng cường các hoạt động gây ảnh hưởng và thông tin sai lệch. Bản thân AGI có thể trở nên mang tính hủy diệt nếu nó theo đuổi các mục tiêu xấu hoặc thực hiện các biện pháp như lừa dối con người để đạt được mục tiêu hiệu quả hơn.
Khi Meta huấn luyện Cicero chơi trò chơi có tên là Diplomacy "một cách trung thực" bằng cách chỉ tạo ra các thông báo phản ánh ý định của nó trong mỗi lần tương tác, các nhà phân tích cho rằng nó vẫn có thể giữ kín thông tin về ý định thực sự hoặc không thông báo cho người chơi khác khi ý định của nó thay đổi. Đây là những cân nhắc nghiêm túc với những rủi ro trước mắt và đã khiến nhiều chuyên gia AI và những người nghiên cứu rủi ro kêu gọi tạm dừng nghiên cứu AI nâng cao. Nhưng các nhà hoạch định chính sách trên toàn thế giới khó có thể dừng lại do có động lực mạnh mẽ để trở thành người lãnh đạo.
Tất cả điều này nghe có vẻ xa vời, nhưng nó không xa như chúng ta nghĩ. Trong một cuộc khảo sát năm 2022, có 352 chuyên gia AI dự đoán 50% khả năng trí thông minh máy ở cấp độ con người sẽ xuất hiện sau 37 năm nữa - tức là năm 2059. Cộng đồng dự báo trên nền tảng đám đông Metaculus, có nhiều thành tích về các vấn đề liên quan đến dự báo AI, thậm chí còn tự tin hơn về sự phát triển sắp tới của AGI. Sự tổng hợp của hơn 1.000 nhà dự báo cho thấy năm 2032 là năm có khả năng các hệ thống AI nói chung sẽ được phát minh, thử nghiệm và công bố rộng rãi. Nhưng đó chỉ là ước tính hiện tại—các chuyên gia và những người tham gia trên Metaculus đã rút ngắn thời gian mỗi năm khi những đột phá mới về AI được công bố rộng rãi.
Điều đó có nghĩa là các nền dân chủ có thời gian từ 10-40 năm để chuẩn bị cho sự phát triển AGI. Thách thức chính sẽ là làm thế nào để ngăn chặn những rủi ro tồn tại của AI trong khi chúng phát triển nhanh hơn các hệ thống chính trị độc tài.
Đầu tiên, các nhà hoạch định chính sách ở các nền dân chủ phải thu hút nhân tài AI toàn cầu, bao gồm cả từ Trung Quốc và Nga, để giúp điều chỉnh các mô hình AGI phù hợp với các giá trị dân chủ. Nhân tài cũng cần thiết trong các cơ quan hoạch định chính sách của chính phủ và các tổ chức tư vấn để đánh giá tác động của AGI và xây dựng năng lực để nhanh chóng thích ứng với những phát triển trong tương lai.
Thứ hai, các chính phủ nên chủ động giám sát tất cả hoạt động nghiên cứu và phát triển AGI và nên thông qua luật cho phép các cơ quan quản lý đóng cửa hoặc tạm dừng các dự án đặc biệt rủi ro. Chúng ta nên nhớ rằng Bắc Kinh còn nhiều điều phải lo lắng hơn liên quan đến việc liên kết AI vì ĐCSTQ quá lo lắng về sự an toàn chính trị của chính mình nên không thể nới lỏng các quy định nghiêm ngặt về phát triển AI. Do đó, chúng ta không nên coi sự tham gia của chính phủ chỉ ở khía cạnh khả năng làm chúng chậm lại. Ở mức tối thiểu, tất cả các quốc gia, bao gồm cả Mỹ và Trung Quốc, phải minh bạch về nghiên cứu và tiến bộ AGI của mình. Điều đó phải bao gồm việc tiết lộ công khai nguồn tài trợ cho các chính sách an toàn và nghiên cứu AGI cũng như xác định các nhà phát triển AGI hàng đầu của họ.
Thứ ba, các nền dân chủ tự do phải cùng nhau duy trì vị trí dẫn đầu càng lớn càng tốt trong việc phát triển AI và hạn chế hơn nữa quyền truy cập vào công nghệ cao cấp, sở hữu trí tuệ, bộ dữ liệu chiến lược và đầu tư nước ngoài vào ngành công nghiệp AI và an ninh quốc gia của Trung Quốc. Việc cản trở sự phát triển AI của ĐCSTQ trong các ngành quân sự, an ninh và tình báo cũng là điều chính đáng về mặt đạo đức trong việc ngăn chặn các vi phạm nhân quyền.
Ví dụ, Midu, một công ty AI có trụ sở tại Thượng Hải hỗ trợ công tác tuyên truyền và an ninh công cộng của Trung Quốc, gần đây đã công bố sử dụng các mô hình ngôn ngữ lớn để tự động hóa báo cáo phân tích dư luận nhằm hỗ trợ giám sát người dùng trực tuyến. Trong khi khả năng tiếp cận các công nghệ và đầu tư tiên tiến của Trung Quốc bị hạn chế, các quốc gia có cùng quan điểm khác như Australia nên thực hiện các biện pháp kiểm soát đầu tư ra nước ngoài tương tự vào các ngành công nghiệp AI và an ninh quốc gia của Trung Quốc.
Cuối cùng, các chính phủ nên tạo động lực để thị trường phát triển AGI an toàn và giải quyết vấn đề liên kết. Nghiên cứu kỹ thuật về khả năng của AI đang vượt xa nghiên cứu kỹ thuật về sự liên kết của AI, và các công ty đang không thể đầu tư đúng mức. Chính phủ nên tạo ra giải thưởng cho các nhóm nghiên cứu hoặc cá nhân để giải quyết các vấn đề khó khăn về liên kết AI. Một mô hình tiềm năng có thể giống như các Bài toán Giải thưởng Thiên niên kỷ của Viện Clay, nơi trao các giải thưởng cho lời giải cho một số bài toán khó nhất thế giới.
Australia là điểm đến hấp dẫn cho nhân tài toàn cầu và là nơi có nhiều nhà nghiên cứu về an toàn AI. Chính phủ Australia nên tận dụng lợi thế này để trở thành trung tâm quốc tế về nghiên cứu liên kết và an toàn AI. Bộ Công nghiệp, Khoa học và Tài nguyên nên thành lập quỹ giải thưởng AGI đầu tiên trên thế giới với ít nhất 100 triệu AUD để trao cho nhóm nghiên cứu toàn cầu đầu tiên định hướng AGI một cách an toàn.
Trung tâm Trí tuệ Nhân tạo Quốc gia Australia nên giám sát một hội đồng quản lý quỹ này và làm việc với cộng đồng nghiên cứu để đưa ra danh sách các điều kiện và cơ chế xem xét trao giải thưởng. Với 100 triệu AUD, hội đồng quản trị có thể áp dụng ủy thác đầu tư tương tự như Quỹ Tương lai của Australia để đạt được lợi nhuận trung bình hàng năm ít nhất bằng chỉ số giá tiêu dùng cộng thêm 4-5%/năm trong dài hạn. Thay vì được tái đầu tư vào quỹ, khoản tiền lãi 4-5% tích lũy hàng năm ngoài CPI nên được sử dụng làm phần thưởng nhỏ cho những thành tựu gia tăng trong nghiên cứu AI mỗi năm. Những giải thưởng này cũng có thể được sử dụng để tài trợ cho học bổng Tiến sĩ AI hoặc thu hút các tiến sĩ AI đến Australia. Các giải thưởng khác có thể được trao cho nghiên cứu, bao gồm cả nghiên cứu được thực hiện bên ngoài Australia, trong các lễ trao giải hàng năm, như giải Nobel, giải thưởng sẽ quy tụ các chuyên gia toàn cầu về AI để chia sẻ kiến thức và tiến bộ.
Quỹ 100 triệu AUD có vẻ là được cho là quá nhiều cho nghiên cứu AI nhưng để so sánh, Microsoft được cho là đã đầu tư 10 tỷ USD vào OpenAI chỉ trong năm 2023. Và 100 triệu AUD sẽ là quá ít so với những đóng góp mà AGI được định hướng một cách an toàn mang lại cho nền kinh tế quốc gia.
Tỷ lệ thành công là rất cao để có được AGI theo đúng định hướng. Nếu được điều chỉnh và phát triển hợp lý, AGI có thể mang lại một kỷ nguyên thịnh vượng. Nhưng các dự án AGI được theo đuổi một cách liều lĩnh có thể gây ra rủi ro thực sự trong việc tạo ra các hệ thống siêu AI nguy hiểm hoặc gây ra thảm họa toàn cầu. Các nền dân chủ không được nhường lại quyền lãnh đạo phát triển AGI cho các hệ thống độc tài, nhưng họ cũng không nên vội vàng đảm bảo một chiến thắng kiểu Pyrros bằng cách tiếp tục các mô hình không tôn trọng nhân quyền, các giá trị tự do và an toàn cơ bản.
Sự cân bằng khó khăn giữa đổi mới và an toàn là lý do khiến các nhà hoạch định chính sách, cơ quan tình báo, ngành công nghiệp, xã hội dân sự và các nhà nghiên cứu phải hợp tác để định hình tương lai của AGI và hợp tác với cộng đồng toàn cầu để vượt qua giai đoạn không chắc chắn với nguy cơ tuyệt chủng loài người ngày càng cao./.
Thoibaovietuc.com/Nguồn The Strategist
Copyright © 2022 Thời báo Việt Úc. All Rights Reserved