Mối nguy hiểm tiềm tàng của AI trong chiến tranh tương lai

Thứ Năm, 22/05/2025

2:36 am(VN)

-

5:36 am(AU)

dropdown weather

Đang hiển thị

Thành phố khác

Rao vặt
VN EN

Mối nguy hiểm tiềm tàng của AI trong chiến tranh tương lai

03/01/2025

Các trò chơi chiến tranh gần đây sử dụng các mô hình trí tuệ nhân tạo từ OpenAI, Meta và Anthropic đã tiết lộ một xu hướng đáng lo ngại: Các mô hình AI có nhiều khả năng leo thang xung đột thành chiến tranh động lực, thậm chí là chiến tranh hạt nhân hơn con người. Đây là nội dung bài viết của tác giả Nishank Motwani, nhà phân tích cấp cao tại văn phòng Washington của Viện chính sách chiến lược Úc ASPI được đăng tải trên tạp chí của viện này hôm qua.

Kết quả này làm nổi bật sự khác biệt cơ bản về bản chất của chiến tranh giữa con người và AI. Đối với con người, chiến tranh là phương tiện để áp đặt ý chí sinh tồn; đối với AI, phép tính rủi ro và phần thưởng hoàn toàn khác, bởi vì, như nhà khoa học tiên phong Geoffrey Hinton đã lưu ý, 'chúng ta là hệ thống sinh học, và đây là hệ thống kỹ thuật số.'

Bất kể con người kiểm soát hệ thống AI đến mức nào, chúng ta cũng không thể ngăn chặn sự khác biệt ngày càng lớn giữa hành vi của chúng ta và của con người, vì mạng lưới nơ-ron AI đang hướng tới tính tự chủ và ngày càng khó giải thích.

Nói một cách thẳng thắn, trong khi các trò chơi chiến tranh của con người và bản thân chiến tranh đòi hỏi phải sử dụng vũ lực một cách có chủ đích để buộc kẻ thù phải theo ý muốn của chúng ta, AI không bị ràng buộc vào bản năng cốt lõi của con người, bản năng tự bảo vệ. Mong muốn sinh tồn của con người mở ra cánh cửa cho ngoại giao và giải quyết xung đột, nhưng liệu các mô hình AI có thể được tin cậy đến mức nào để xử lý các sắc thái của đàm phán phù hợp với các giá trị của con người vẫn chưa được biết.

Tiềm năng gây ra tác hại thảm khốc từ AI tiên tiến là có thật, như được nhấn mạnh trong Tuyên bố Bletchley về AI , được gần 30 quốc gia ký kết, bao gồm Úc, Trung Quốc, Hoa Kỳ và Anh. Tuyên bố nhấn mạnh nhu cầu phát triển AI có trách nhiệm và kiểm soát các công cụ chiến tranh mà chúng ta tạo ra.

Tương tự như vậy, các cuộc thảo luận đang diễn ra của Liên hợp quốc về vũ khí tự động gây chết người nhấn mạnh rằng các thuật toán không nên có toàn quyền kiểm soát các quyết định liên quan đến sự sống và cái chết. Mối quan tâm này phản ánh những nỗ lực trước đây nhằm quản lý hoặc cấm một số loại vũ khí nhất định. Tuy nhiên, điều khiến vũ khí tự động hỗ trợ AI trở nên khác biệt là mức độ chúng loại bỏ sự giám sát của con người khỏi việc sử dụng vũ lực.

Một vấn đề lớn với AI là cái được gọi là nghịch lý khả năng giải thích: ngay cả những người phát triển AI cũng thường không thể giải thích tại sao các hệ thống AI đưa ra một số quyết định nhất định. Sự thiếu minh bạch này là một vấn đề đáng kể trong các lĩnh vực có rủi ro cao, bao gồm cả việc ra quyết định quân sự và ngoại giao, nơi nó có thể làm trầm trọng thêm các căng thẳng địa chính trị hiện có. Như Mustafa Suleyman, đồng sáng lập DeepMind, đã chỉ ra, bản chất không minh bạch của AI có nghĩa là chúng ta không thể giải mã các quyết định của AI để giải thích chính xác lý do tại sao một thuật toán tạo ra một kết quả cụ thể.

Thay vì coi AI chỉ là một công cụ, thì chính xác hơn là coi nó như một tác nhân có khả năng đưa ra phán đoán và quyết định độc lập. Khả năng này là chưa từng có, vì AI có thể tạo ra những ý tưởng mới và tương tác với các tác nhân AI khác một cách tự động, ngoài tầm kiểm soát trực tiếp của con người. Khả năng các tác nhân AI đưa ra quyết định mà không cần sự can thiệp của con người làm dấy lên những lo ngại đáng kể về khả năng kiểm soát các công nghệ mạnh mẽ này—một vấn đề mà ngay cả những nhà phát triển vũ khí hạt nhân đầu tiên cũng phải vật lộn.

Trong khi một số người muốn áp đặt quy định đối với AI giống như chế độ không phổ biến vũ khí hạt nhân, cho đến nay đã hạn chế vũ khí hạt nhân ở chín quốc gia, AI đặt ra những thách thức độc đáo. Không giống như công nghệ hạt nhân, quá trình phát triển và triển khai AI được phân cấp và do các thực thể và cá nhân tư nhân thúc đẩy, vì vậy về bản chất, AI rất khó để quản lý. Công nghệ này đang lan truyền rộng rãi và nhanh chóng với sự giám sát ít ỏi của chính phủ. AI dễ bị các tác nhân nhà nước và phi nhà nước sử dụng với mục đích xấu.

Khi các hệ thống AI ngày càng tiên tiến hơn, chúng cũng tạo ra những rủi ro mới, bao gồm việc đưa thông tin sai lệch và thông tin sai lệch lên mức độ chưa từng có.

Ứng dụng AI vào công nghệ sinh học mở ra con đường mới cho các nhóm và cá nhân khủng bố phát triển vũ khí sinh học tiên tiến. Điều đó có thể khuyến khích những kẻ xấu, hạ thấp ngưỡng xung đột và khiến các cuộc tấn công có khả năng xảy ra hơn.

Việc duy trì sự giám sát của con người là rất quan trọng vì các hệ thống AI ngày càng ảnh hưởng đến các quyết định quan trọng. Ngay cả khi con người tham gia, vai trò giám sát của họ có thể giảm đi khi lòng tin vào kết quả đầu ra của AI tăng lên, mặc dù AI có những vấn đề đã biết về ảo giác và lỗi. Việc phụ thuộc vào AI có thể dẫn đến sự tự tin thái quá nguy hiểm trong các quyết định của mình, đặc biệt là trong bối cảnh quân sự, nơi tốc độ và hiệu quả thường quan trọng hơn sự thận trọng.

Khi AI trở nên phổ biến, sự tham gia của con người vào các quy trình ra quyết định có thể giảm dần do chi phí và sự kém hiệu quả liên quan đến sự giám sát của con người. Trong các tình huống quân sự, tốc độ là một yếu tố quan trọng và khả năng thực hiện các nhiệm vụ phức tạp một cách nhanh chóng của AI có thể mang lại lợi thế quyết định. Tuy nhiên, lợi thế về tốc độ này có thể phải trả giá bằng việc từ bỏ quyền kiểm soát của con người, làm nảy sinh những tình huống khó xử về mặt đạo đức và chiến lược về mức độ chúng ta cho phép máy móc quyết định tiến trình xung đột của con người.

Tốc độ tăng tốc mà AI hoạt động cuối cùng có thể gây áp lực lên vai trò của con người trong các vòng lặp ra quyết định, vì nhu cầu phản hồi nhanh hơn có thể dẫn đến việc gạt bỏ phán đoán của con người. Động lực này có thể tạo ra một tình huống bấp bênh khi việc tìm kiếm tốc độ và hiệu quả làm suy yếu sự giám sát của chính con người cần thiết để đảm bảo rằng việc sử dụng AI phù hợp với các giá trị và tiêu chuẩn an toàn của chúng ta./.


 

Copyright © 2022 Thời báo Việt Úc. All Rights Reserved

Mail
Zalo
Hotline

Hotline

SMS

Zalo Chat

Fanpage