Thế giới vẫn còn lúng túng trong quản lý AI

Thứ Bảy, 21/06/2025

12:43 am(VN)

-

3:43 am(AU)

dropdown weather

Đang hiển thị

Thành phố khác

Rao vặt
VN EN

Thế giới vẫn còn lúng túng trong quản lý AI

14/11/2023

“Hội nghị cấp cao về an toàn AI”, do Chính phủ Anh đăng cai tổ chức, dường như sẽ được ghi vào sử sách. Thực sự là một ngày nào đó, hội nghị này sẽ được coi là lần đầu tiên các nhà quản trị quyền lực toàn cầu ngồi lại để thảo luận một cách nghiêm túc về những việc cần làm đối với một công nghệ có thể thay đổi thế giới.

 

Hội nghị Cấp cao về Trí tuệ nhân tạo (AI) được tổ chức tại Dinh thự Bletchley từ ngày 1-2/11. Theo tờ Economics, địa điểm đẹp như tranh vẽ: khu nhà từ thế kỷ 19 nằm phía Bắc London, nơi trong thời kỳ Chiến tranh Thế giới thứ hai là chỗ ở của Alan Turing cùng đội giải mã của ông và chiếc máy tính kỹ thuật số có thể lập trình đầu tiên. Những người tham dự Hội nghị là một nhóm ưu tú gồm 100 nhà lãnh đạo thế giới và giám đốc điều hành công nghệ. Và câu hỏi mà họ cố gắng trả lời mang tính thời đại: làm thế nào để đảm bảo rằng AI không trở thành công cụ cho hành vi sai trái không được kiểm soát cũng như không quay lại chống loài người.


Như một trong những người tổ chức hội nghị này nhận xét, trái với các cuộc tranh luận chính sách lớn khác, chẳng hạn như biến đổi khí hậu, “có rất nhiều ý chí chính trị để làm điều gì đó, nhưng không rõ là điều gì”.


Có rất nhiều nỗ lực để kiểm soát AI. Các cuộc đàm phán tại Brussels bước vào giai đoạn then chốt vào ngày 25/10 khi giới chức nỗ lực hoàn tất đạo luật AI đầy tham vọng của Liên minh châu Âu (EU) vào cuối năm nay. Trong những ngày trước hội nghị cấp cao tại Anh hoặc ngay sau đó, Nhà Trắng dự kiến ban hành lệnh hành pháp về AI. Nhóm G7 gồm các nền dân chủ giàu có sẽ bắt đầu soạn thảo bộ quy tắc ứng xử cho các công ty AI vào mùa Thu này. Về phần mình, ngày 18/10, Trung Quốc đã công bố “Sáng kiến quản trị AI toàn cầu”.


Động lực bắt nguồn từ nền kinh tế chính trị bất thường. Động lực để hành động và cùng nhau hành động rất mạnh mẽ. Đầu tiên, AI thực sự là một công nghệ toàn cầu. Các mô hình ngôn ngữ lớn (LLM), vốn hỗ trợ các dịch vụ rất giống con người như ChatGPT, dễ dàng lan tỏa. Một số có thể chạy trên máy tính xách tay. Việc siết chặt các quy định đối với AI ở một số quốc gia sẽ ít có tác dụng nếu chúng vẫn lỏng lẻo ở các quốc gia khác. Cử tri có thể ủng hộ việc siết chặt các quy định. Theo cuộc thăm dò của Trung tâm Nghiên cứu Pew, hơn một nửa số người Mỹ “quan ngại hơn là hào hứng” với việc sử dụng AI.


Những mâu thuẫn về quy định làm gia tăng tính cấp bách. Đạo luật AI của châu Âu một phần nhằm mục đích củng cố vai trò của khối với tư cách là bên thiết lập tiêu chuẩn kỹ thuật số toàn cầu. Nhà Trắng rất muốn ngăn chặn một “hiệu ứng Brussels” như vậy. Cả EU và Mỹ đều không muốn thua kém Trung Quốc, quốc gia đã áp dụng một số luật AI. Họ bất bình với Chính phủ Anh vì đã mời Trung Quốc tham dự hội nghị mà không nghĩ rằng nếu không có Trung Quốc, bất kỳ cơ chế quản lý nào cũng  không thực sự mang tính toàn cầu (Trung Quốc có thể xuất hiện, mặc dù nước này có thể quan tâm đến bảo vệ Đảng Cộng sản hơn là bảo vệ nhân loại).
 

Một động lực khác của ngoại giao xây dựng quy tắc quản lý AI thậm chí còn đáng ngạc nhiên hơn: chính những người tạo ra AI. Trong quá khứ, ngành công nghệ này cơ bản phản đối các quy định. Giờ đây, những gã khổng lồ như Alphabet và Microsoft, cũng như những công ty được yêu mến về AI như Anthropic và OpenAI - công ty đã tạo ra ChatGPT, vận động hành lang cho việc thiết lập các quy định. Các công ty lo ngại rằng sự cạnh tranh không bị kiểm soát sẽ thúc đẩy họ hành động liều lĩnh bằng cách tung ra những mô hình có thể dễ dàng bị lạm dụng hoặc bắt đầu tự phát triển trí tuệ của mình. Điều đó thực sự có thể khiến họ rơi vào tình thế khó khăn, nguy hiểm.


Nói cách khác, ý chí hành động là có. Điều chưa có là “việc tiến tới một sự đồng thuận nào đó về vấn đề gì chúng ta cần quản lý, chưa nói đến việc chúng ta phải quản lý chúng như thế nào”, theo chuyên gia Henry Farrell của Đại học Johns Hopkins. Ba cuộc tranh luận nổi bật. Thế giới nên lo lắng về điều gì? Các quy định nhắm đến mục tiêu gì? Các quy định nên được thực thi như thế nào?


Bắt đầu với các mục tiêu của quy định. Khó để thiết lập điều này vì AI đang phát triển nhanh chóng. Hầu như không ngày nào trôi qua mà công ty khởi nghiệp không nghĩ ra điều gì đó mới mẻ. Ngay cả các nhà phát triển LLM cũng không thể nói chắc được các mô hình sẽ thể hiện những năng lực gì. Điều này khiến việc phải có những bài kiểm tra để đánh giá mức độ rủi ro của chúng là rất quan trọng - điều vẫn mang tính nghệ thuật hơn là khoa học. Nếu không có những đánh giá như vậy, sẽ khó kiểm tra xem một mô hình có tuân thủ bất kỳ quy định nào hay không.


Các công ty công nghệ có thể ủng hộ quy định, nhưng muốn chặt chẽ và chỉ nhắm đến những rủi ro cực đoan. Tại phiên điều trần của Thượng viện ở Washington hồi tháng 7, Dario Amodei, Giám đốc điều hành của Anthropic, đã cảnh báo rằng các mô hình AI trong vài năm tới có thể cung cấp tất cả thông tin cần thiết để chế tạo vũ khí sinh học, cho phép “nhiều tác nhân hơn thực hiện các cuộc tấn công sinh học quy mô lớn”. Những dự báo khủng khiếp tương tự đang được đưa ra về vũ khí mạng. Đầu tháng này, Gary Gensler, Chủ tịch Ủy ban Chứng khoán và Giao dịch Mỹ, dự đoán rằng một cuộc khủng hoảng tài chính do AI tạo ra là “gần như không thể tránh khỏi” nếu không có sự can thiệp nhanh chóng.


Những người khác cho rằng những rủi ro có tính suy đoán này làm sao nhãng các mối đe dọa khác, chẳng hạn như việc phá hoại tiến trình dân chủ. Tại phiên điều trần trước đó tại Thượng viện, Gary Marcus, một người hoài nghi AI đáng chú ý, đã mở đầu lời khai của mình bằng một đoạn tin nóng được viết bởi GPT-4, mô hình hàng đầu của OpenAI. Đoạn tin cáo buộc một cách thuyết phục rằng các bộ phận của Quốc hội đã bị “các thực thể ngoài Trái đất bí mật thao túng”. Ông Gary Marcus lập luận: “Tất cả chúng ta nên lo lắng một cách sâu sắc về những hệ thống có thể nói chuyện một cách trôi chảy”.


Cuộc tranh luận về những gì cần được điều chỉnh cũng không dễ giải quyết hơn. Các công ty công nghệ chủ yếu đề xuất nên chỉ giám sát các mô hình “tiên phong” mạnh mẽ nhất. Microsoft và một số hãng khác kêu gọi có cơ chế cấp phép yêu cầu các công ty phải đăng ký những mô hình vượt quá ngưỡng hiệu suất nhất định. Các đề xuất khác bao gồm kiểm soát việc bán chip mạnh dùng để đào tạo LLM và yêu cầu các công ty điện toán đám mây phải thông báo cho cơ quan chức năng khi khách hàng đào tạo các mô hình tiên phong.


Hầu hết các công ty cũng đồng ý rằng chính việc ứng dụng của mô hình, chứ không phải bản thân các mô hình, cần được quản lý. Phần mềm văn phòng? Quản lý nhẹ nhàng. Chăm sóc sức khỏe AI? Quy định nghiêm ngặt. Nhận dạng khuôn mặt ở không gian công cộng? Có lẽ là bế tắc. Ưu điểm của quản lý dựa trên việc ứng dụng như vậy là luật pháp hiện hành gần như đã đủ. Các nhà phát triển AI cảnh báo rằng các quy định rộng hơn và mang tính xâm phạm hơn sẽ làm chậm quá trình đổi mới.


Cho đến năm 2022, Mỹ, Anh và EU dường như vẫn đồng ý với cách tiếp cận dựa trên rủi ro này. Sự gia tăng ngoạn mục của các LLM kể từ khi ChatGPT ra mắt một năm trước đang khiến họ phải suy nghĩ lại. EU hiện đang tự hỏi liệu có cần giám sát chính bản thân các mô hình hay không.

 

Nghị viện châu Âu muốn các nhà sản xuất mô hình kiểm tra các tác động tiềm tàng của LLM đối với mọi thứ, từ sức khỏe con người đến nhân quyền. Cơ quan này đòi hỏi phải có thông tin về dữ liệu mà các mô hình được đào tạo. Canada có “Đạo luật Dữ liệu và AI” cứng rắn hơn trong số các sản phẩm của quốc hội. Brazil đang thảo luận điều gì đó tương tự. Tại Mỹ, lệnh hành pháp của Tổng thống Joe Biden cũng bao gồm một số quy định cứng rắn. Ngay cả nước Anh cũng có thể xem xét lại cách tiếp cận không can thiệp của mình.


Những quy định cứng rắn hơn là sự thay đổi so với quy tắc ứng xử không mang tính ràng buộc, mà cho đến nay vẫn là cách tiếp cận được ưa chuộng. Mùa Hè năm 2022, Nhà Trắng đàm phán bộ “cam kết tự nguyện” mà 15 nhà sản xuất mô hình hiện đã ký kết. Các công ty đồng ý kiểm tra mô hình của mình trong nội bộ và bên ngoài trước khi phát hành và chia sẻ thông tin về cách họ quản lý rủi ro AI.


Sau đó câu hỏi là ai thực hiện việc quản lý. Mỹ và Anh cho rằng các cơ quan chính phủ hiện tại có thể thực hiện hầu hết công việc này. EU muốn thành lập cơ quan quản lý mới. Trên bình diện quốc tế, một số ít giám đốc điều hành công nghệ hiện đang kêu gọi thành lập một cơ quan giống như Ủy ban liên chính phủ về biến đổi khí hậu (IPCC), cơ quan có nhiệm vụ theo sát các nghiên cứu mới nhất về biến đổi khí hậu và việc phát triển cách để đánh giá tác động của biến đổi khí hậu.


Với tất cả những câu hỏi mở này, không có gì ngạc nhiên khi những người tổ chức hội nghị cấp cao ở London có vẻ không mấy tham vọng. Theo lời của một người trong cuộc, cơ bản hội nghị được coi là “một cuộc trò chuyện”. Tuy nhiên, hy vọng không giấu giếm là hội nghị mang lại một số kết quả rõ ràng, đặc biệt là vào ngày 2/11 khi chỉ còn khoảng 20 nhà lãnh đạo công ty và thế giới quan trọng nhất trong phòng họp. Họ vẫn có thể tán thành các cam kết tự nguyện của Nhà Trắng và khuyến nghị tạo ra một IPCC cho AI hoặc thậm chí toàn cầu hóa “Lực lượng đặc nhiệm tiên phong về AI” hiện có của Anh.


Một kết quả như vậy sẽ được coi là thành công đối với Chính phủ Anh. Điều này cũng sẽ đẩy nhanh những nỗ lực chính thức hơn trong quản trị AI toàn cầu, chẳng hạn như bộ quy tắc ứng xử của G7. Như vậy, đây có thể là bước đi hữu ích đầu tiên, nhưng cũng không phải là bước đi cuối cùng./.

 

Thoibaovietuc.com/Nguồn Economics

Copyright © 2022 Thời báo Việt Úc. All Rights Reserved

Mail
Zalo
Hotline

Hotline

SMS

Zalo Chat

Fanpage