Chính phủ Australia yêu cầu các tổ chức tìm hiểu "hồ sơ rủi ro" của AI

Thứ Hai, 20/10/2025

5:47 am(VN)

-

9:47 am(AU)

dropdown weather

Đang hiển thị

Thành phố khác

Rao vặt
VN EN

Chính phủ Australia yêu cầu các tổ chức tìm hiểu "hồ sơ rủi ro" của AI

12/06/2023

Theo bài viết "Is artificial intelligence about to be regulated?" (Tạm dịch là: Liệu trí tuệ nhân tạo sẽ được điều chỉnh?) trên trang mạng aspistrategist mới đây, các công nghệ trí tuệ nhân tạo (AI) tiên tiến đang được áp dụng với tốc độ chưa từng thấy và tiềm năng của chúng cho cách mạng hóa xã hội vì lợi ích tốt đẹp là rất lớn.

 

Kể từ khi ChatGPT được OpenAI phát hành lần đầu tiên vào tháng 11/2022, các công nghệ AI đã được nâng cao nhận thức thế giới với tốc độ mà ít công nghệ đạt được.

Tuy nhiên, AI cũng đặt ra những rủi ro đáng kể, từ rò rỉ dữ liệu và vi phạm quyền riêng tư cho đến tấn công và phá hoại có chủ ý. Tầm quan trọng của việc giảm thiểu những rủi ro, đảm bảo sự phát triển và triển khai có trách nhiệm của công nghệ AI ngày càng gia tăng. Vào ngày 1/6, Chính phủ Australia, thông qua văn phòng của Bộ trưởng Bộ Công nghiệp và Khoa học Ed Husic công bố một tài liệu thảo luận về sự cần thiết phải điều chỉnh AI. Điều này có thể thấy các công nghệ AI đi kèm với rủi ro và yêu cầu các tổ chức phải tìm hiểu "hồ sơ rủi ro" của AI.

Điều này cũng được thể hiện thông qua các cuộc thảo luận lớn đang diễn ra trên khắp thế giới, thể hiện qua những nỗ lực gần đây của Mỹ nhằm thu hút sự tham gia của các nhà lãnh đạo và thúc đẩy đổi mới có trách nhiệm.

Hồi giữa tháng Năm vừa qua, tại Tiểu ban Tư pháp Thượng viện Mỹ về Quyền riêng tư, Công nghệ và Luật, Giám đốc điều hành Open AI Sam Altman  đã nêu bật những tác hại tiềm ẩn của AI và nhu cầu có quy định chặt chẽ hơn. Điều này diễn ra sau các cuộc họp trước đó giữa Tổng thống Joe Biden và những người đứng đầu các công ty Alphabet, Anthropic, Microsoft và OpenAI để thảo luận về hướng đi tiềm năng của công nghệ và các lựa chọn để giảm thiểu rủi ro. Cuộc họp tập trung vào vấn đề an toàn, an ninh, quyền con người và quyền công dân, quyền riêng tư, việc làm và các giá trị dân chủ cũng như những gì có thể được thực hiện để bảo vệ công dân khỏi rủi ro liên quan đến AI.

Cuộc họp diễn ra trong bối cảnh suy đoán rằng AI có thể đang ở một "bước ngoặt" sẽ được ghi nhớ trong nhiều thập kỷ tới. Trong sáu tháng qua, những tiến bộ công nghệ đáng kinh ngạc đã đạt được dưới lớp vỏ của AI, vượt qua những gì mà ngay cả các chuyên gia trong lĩnh vực này nghĩ là có thể trong thời gian gần và trung hạn. Điều này bao gồm các mô hình ngôn ngữ lớn, khả năng trực quan tiên tiến và những đột phá mà một số người dự báo sẽ cho phép các phương tiện tự hành thay thế người lái xe.

Tốc độ và mức độ của những tiến bộ này đã khiến một số chuyên gia cảnh báo rằng AI đặt ra mối đe dọa hiện hữu đối với nhân loại. Viện Tương lai của Cuộc sống đã viết một bức thư ngỏ kêu gọi tạm dừng phát triển AI. Chuyên gia Geoffrey Hinton, thường được gọi là "cha đỡ đầu của AI", đã rời Google với lý do lo ngại về sự nguy hiểm của công nghệ này. Chuyên gia Eliezer Yudkowsky, một chuyên gia nổi tiếng về việc kêu gọi thận trọng đối với AI, đã kêu gọi "dừng sử dụng AI". Những lời kêu gọi công khai này đi kèm với nhận thức ngày càng tăng rằng những gì từng là một thách thức mang tính lý thuyết đang ngày càng trở thành hiện thực.

Các quan điểm phản đối hệ thống AI đang diễn ra trong thế giới thực. Một sáng kiến vì lợi ích cộng đồng- Các sự cố và tranh cãi về AI, Thuật toán và Tự động hóa- đã lưu giữ danh sách các sự cố và cuộc tấn công AI, từ việc tạo tin giả tự động, lỗi của các hệ thống tự hành như ô tô tự lái và tuyên truyền chính trị được tung ra dưới dạng deepfakes (công nghệ giả siêu thực). Một số nhà tư tưởng trong lĩnh vực nhân văn, bao gồm Yuval Harari (tác giả của Sapiens và Homo Deus) thậm chí còn cho rằng AI có khả năng "xâm nhập" xã hội nhờ khả năng ảnh hưởng đến văn hóa và chuẩn mực con người.

Cuộc gặp của Tổng thống Joe Biden với các nhà lãnh đạo về công nghệ công nhận một thách thức mới, mặc dù trong bối cảnh xu hướng hiện có: Khi những tiến bộ công nghệ lớn nhất được tạo ra và kiểm soát bởi ngành công nghiệp tư nhân, các chính phủ phải chủ động giảm thiểu rủi ro. Đây cũng là một thách thức đối với phần còn lại của thế giới, vì những tiến bộ lớn nhất trong công nghệ toàn cầu đang được thực hiện ở một số công ty rất lớn ở Mỹ. Duy trì vị trí tiên phong của AI đòi hỏi nguồn tài chính và công cụ quan trọng mà các công ty này sẵn sàng đầu tư. Chẳng hạn, việc đào tạo GPT-3, mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT, tiêu tốn hàng triệu USD. Đây là mối quan tâm đặc biệt trong bối cảnh bảo mật thông tin. Khi thông tin được các công ty này nắm giữ là độc quyền, các công ty này cũng đồng thời sẽ có được các thông tin về cách bảo mật những thông tin mà họ nắm giữ.

Đặc biệt, học máy đối nghịch đặt ra một mối đe dọa đáng kể, vì điều này cho phép các tác nhân độc hại thao túng hệ thống AI và có khả năng gây hại cho các cá nhân hoặc tổ chức. Ví dụ, kẻ tấn công có thể thao túng dữ liệu được sử dụng để đào tạo hệ thống AI về nhận dạng khuôn mặt để khiến hệ thống xác định sai một số cá nhân nhất định.

Nhiều quốc gia đã thực hiện các bước để thúc đẩy đổi mới có trách nhiệm và giảm thiểu rủi ro trong AI. Tại Mỹ, các sáng kiến bao gồm kế hoạch chi tiết cho dự luật về quyền AI , khuôn khổ quản lý rủi ro AI và lộ trình xây dựng nguồn tài nguyên nghiên cứu AI quốc gia. EU đã thành lập Liên minh AI châu Âu nhằm mục đích thúc đẩy AI có đạo đức và đáng tin cậy, cũng như sáng kiến AI4People nhằm phát triển một bộ hướng dẫn đạo đức cho AI. Australia gần đây đã thành lập Mạng lưới AI có Trách nhiệm của Trung tâm AI Quốc gia. Trung Quốc mới đề xuất dự thảo các biện pháp điều chỉnh AI tổng hợp, dạng AI đằng sau deepfakes và tạo văn bản. Năm 2017, Chính phủ Trung Quốc đã công bố kế hoạch phát triển AI thế hệ mới, nhằm đưa Trung Quốc trở thành nước dẫn đầu thế giới về công nghệ vào năm 2030.

Tuy nhiên, với sự phát triển của AI diễn ra quá nhanh khiến ngay cả các chuyên gia cũng không thể theo kịp, hoàn toàn hợp lý khi quan ngại về những chính sách và hệ thống quản lý. Hiện tại, thông tin sai lệch, deepfakes và sự ngờ vực đang tấn công các thể chế dân chủ. Thậm chí còn có cuộc thảo luận về cách AI có thể được vũ khí hóa trong xung đột giữa các quốc gia. Tuy nhiên, câu hỏi cấp bách nhất là liệu AI có thể là một rủi ro đối với nhân loại nói chung hay không. Nếu nó trở thành mối đe dọa hiện hữu mà một số nhà lãnh đạo cho rằng nó có thể xảy ra, thì cộng đồng toàn cầu phải làm nhiều hơn nữa để cùng nhau tạo ra một tương lai tích cực cho AI./.

 

Thoibaovietuc.com/Nguồn aspistrategist

Copyright © 2022 Thời báo Việt Úc. All Rights Reserved

Mail
Zalo
Hotline

Hotline

SMS

Zalo Chat

Fanpage