2026-04-28T19:00:00Z
Luật pháp quốc tế quy định gì về việc sử dụng AI trong chiến tranh ?
Tiêu điểm
Phân tích
Có thể nói chưa bao giờ trí tuệ nhân tạo (AI) lại được sử dụng phổ biến trong tác chiến như hiện nay, đặc biệt trong việc xác định mục tiêu và lập kế hoạch tấn công. Tuy nhiên, điều này cũng đặt ra câu hỏi về những rủi ro pháp lý, các lỗ hổng của hệ thống AI và trách nhiệm của các bên liên quan theo luật pháp quốc tế, đặc biệt là sau vụ lMỹ ném bom "nhầm" một trường học ở Minab tại Iran, khiến 168 dân thường thiệt mạng, chủ yếu là trẻ em.
Diễn đàn "InCyber" lần thứ 18, một sự kiện an ninh mạng quốc tế, diễn ra tại Grand Palais ở Lille, miền bắc nước Pháp vào ngày 1/4/2026. AFP – Sameer al-Doumy
Tác giả Louis Perez, nhà nghiên cứu về luật quốc tế tại Đại học Paris-Panthéon-Assas nhận định trên trang báo The Conversation, rằng chưa bao giờ quân đội lại phụ thuộc nhiều vào AI đến thế, cũng chưa bao giờ công nghệ này lại được sử dụng trong khuôn khổ một cuộc chiến cường độ cao như vậy. Và quan trọng hơn, chưa bao giờ các quốc gia lại công khai đến vậy về việc sử dụng những hệ thống này. Chính việc không ngần ngại công khai, kết hợp với hậu quả thảm khốc của một số cuộc tấn công, đã đặt ra câu hỏi về tính hợp pháp của việc sử dụng AI trong chiến tranh theo luật pháp quốc tế.
AI đang được sử dụng như thế nào trong cuộc chiến ở Trung Đông ?
Trong khuôn khổ cuộc xung đột tại Iran, Hoa Kỳ thừa nhận đã sử dụng các hệ thống trí tuệ nhân tạo để thiết lập và sắp xếp danh sách mục tiêu với tốc độ cực nhanh. Quy trình này được cho là đã giúp Mỹ tiến hành1.000 cuộc không kích "rất chính xác", trong 24 giờ đầu của cuộc xung đột. Cụ thể, họ được cho là đã sử dụng hệ thống Maven Smart System, một dự án phối hợp sử dụng phần mềm AI giám sát và thu thập dữ liệu của Palantir, kết hợp với hệ thống AI tạo sinh Claude do Anthropic phát triển.
Tuy nhiên, ngay trong ngày đầu tiên của cuộc chiến, một trong các cuộc không kích của Mỹ đã nhắm vào một trường học ở Minab, khiến khoảng 170 dân thường thiệt mạng, chủ yếu là trẻ em. Hoa Kỳ đã thừa nhận trách nhiệm về cuộc tấn công này và khẳng định đây là một sai sót. Thực tế, ngôi trường nằm gần một căn cứ hải quân của Lực lượng Vệ binh Cách mạng. Trước đây, nó từng là một phần của cùng một khu phức hợp trước khi bị tách ra. Do đó, chính thông tin không được cập nhật đã dẫn đến việc cho phép tiến hành cuộc tấn công.
Một sự nhầm lẫn như vậy không phải là chuyện nhỏ. Nhiều cơ quan truyền thông và tổ chức phi chính phủ đã nhanh chóng chỉ ra mối liên hệ giữa trường học và căn cứ hải quân. Vì vậy, người ta cho rằng quân đội Mỹ có thể đã nhắm vào tòa nhà này dựa trên dữ liệu lỗi thời, do đã mù quáng làm theo một khuyến nghị từ hệ thống AI mà không tiến hành các bước kiểm tra cần thiết.
Tính hợp pháp của việc sử dụng AI
Trước hết, cần làm rõ rằng cho đến nay, chưa có quy định pháp lý nào đề cập cụ thể đến tính hợp pháp của việc sử dụng các hệ thống trí tuệ nhân tạo trong các cuộc xung đột vũ trang. Tuy nhiên, điều đó không có nghĩa là tồn tại một khoảng trống pháp lý. Luật nhân đạo quốc tế (DCA) vẫn quy định rõ ràng về nguyên tắc thận trọng. Theo đó, các bên tham chiến phải làm mọi điều có thể trong thực tế để xác minh rằng các mục tiêu bị tấn công thực sự là mục tiêu quân sự. Trong trường hợp này, quân đội Mỹ dường như đã không tiến hành các bước kiểm tra cần thiết để đảm bảo mục tiêu là một trường học. Một kiểm tra cơ bản, như những gì một số cơ quan truyền thông đã thực hiện, có thể nhanh chóng loại bỏ mọi nghi ngờ.
Cần nhắc lại rằng trong cuộc chiến tại Gaza, từng có thông tin cho thấy binh sĩ Israel đôi khi chỉ có 20 giây để xác nhận một mục tiêu, điều này đặt ra câu hỏi về khả năng thực tế trong việc tuân thủ nguyên tắc nói trên. Những lo ngại liên quan đến AI quân sự thường tập trung vào vấn đề tính tự chủ và nguy cơ một hệ thống có thể tự mình xác định và tấn công mục tiêu ; đây chính là vấn đề của các hệ thống vũ khí sát thương tự động. Tuy nhiên, ví dụ ở Gaza cho thấy rằng ngay cả khi có sự kiểm soát của con người, nó vẫn có thể chỉ mang tính giả tạo nếu người vận hành không có đủ thời gian hoặc tư duy phản biện cần thiết để đánh giá một khuyến nghị do thuật toán đưa ra.
Về phía Iran, cũng cần lưu ý rằng nguyên tắc thận trọng cũng không được tôn trọng đầy đủ. Nguyên tắc này không chỉ đặt ra nghĩa vụ cho bên tấn công, mà còn yêu cầu bên bị tấn công thực hiện một số biện pháp phòng ngừa thụ động : các bên phải, trong chừng mực có thể, tách dân thường và tài sản dân sự ra khỏi các mục tiêu quân sự. Trong trường hợp này, việc biến một tòa nhà của căn cứ hải quân thành trường học, đồng thời vẫn giữ nó ở ngay gần phần còn lại của khu phức hợp quân sự, đã cố ý đặt cơ sở dân sự này vào rủi ro gắn liền với việc tiến hành chiến sự.
Đâu là những trách nhiệm pháp lý, chính trị và đạo đức ?
Trách nhiệm của mỗi cá nhân
Kể cả nếu cuộc tấn công có cấu thành một vi phạm luật xung đột vũ trang (DCA), thì rất có khả năng sẽ không có quân nhân Mỹ nào bị kết án. Dù thực sự họ đã tiến hành không kích vào mục tiêu dân sự thật nhưng lại không phải là do chủ ý. Luật hình sự quốc tế hiện nay không thừa nhận trách nhiệm trong trường hợp sơ suất (vô ý) trong bối cảnh này. Tuy nhiên, cách tiếp cận này có thể sẽ thay đổi. Nếu các sai sót thuật toán trong việc xác định mục tiêu gia tăng, việc cố ý sử dụng một hệ thống mà quân đội đã biết có lỗi, vẫn có thể bị tính như một dạng gián tiếp nhắm vào dân thường. Mặt khác, pháp luật trong tương lai có thể phát triển theo hướng trừng phạt các quân nhân khi sự bất cẩn của họ gây ra cái chết cho dân thường.
Trách nhiệm của các công ty công nghệ
Một điểm cần lưu ý khác là vai trò của các công ty tư nhân chuyên về AI, những bên hiện đang nắm giữ phần lớn năng lực công nghệ được sử dụng trên chiến trường. Các công ty này có thể bị quy trách nhiệm khi họ phát triển các hệ thống có sai sót ; nhưng vượt ra ngoài trách nhiệm pháp lý đó, còn tồn tại một câu hỏi mang tính đạo đức và chính trị căn bản liên quan đến việc bán các công nghệ AI cho mục đích quân sự. Một số công ty trong đi đầu trong lĩnh vực trí tuệ nhân tạo như OpenAI, Google, hay Microsoft dường như hợp tác không điều kiện với quân đội. Trên thực tế họ đã trở thành những doanh nghiệp quốc phòng thực thụ.
Trách nhiệm của quốc gia
Các quốc gia phát triển và sử dụng AI quân sự mang một trách nhiệm đặc biệt. Trong trường hợp này, Hoa Kỳ phải chịu trách nhiệm quốc tế vì đã thực hiện một hành vi vi phạm pháp luật quốc tế. Nhưng ngoài ra, còn phải kể tới một dạng trách nhiệm vừa mang tính pháp lý vừa mang tính chính trị. Theo Điều 1 của Công ước Geneve, các quốc gia có nghĩa vụ tôn trọng và bảo đảm việc tôn trọng luật xung đột vũ trang (DCA). Tuy nhiên, sự phát triển của AI quân sự có xu hướng làm suy yếu việc tuân thủ này, thậm chí còn tạo điều kiện cho các vi phạm pháp luật xảy ra và có nguy cơ bị che giấu.
Nhiều cơ chế khác nhau có thể giúp kiềm chế hiện tượng này, chẳng hạn như đào tạo quân nhân về những đặc thù của các hệ thống AI, xây dựng các quy tắc tác chiến riêng cho trí tuệ nhân tạo, thiết lập các đảm bảo kỹ thuật về độ tin cậy và tính minh bạch của hệ thống, cũng như tiến hành các thử nghiệm và đánh giá thường xuyên.
Kết luận lại thì tai nạn tại Minab là một sự kiện bi thảm, xác nhận những rủi ro mà các chuyên gia về trí tuệ nhân tạo quân sự đã cảnh báo trong nhiều năm, và lẽ ra phải gây ra nhiều phản ứng hơn nữa trên trường quốc tế. Tuy nhiên vụ việc này dường như đã bị lu mờ bởi những mối quan tâm khác được coi là cấp bách và dễ thấy hơn trong cuộc chiến này, trước hết là nguy cơ hạt nhân. Đáng tiếc là vụ đánh bom ở Minab đã không tạo ra cú sốc cần thiết để thúc đẩy các quốc gia đạt được một khuôn khổ pháp lý cụ thể cho AI quân sự.
(Nguồn : The Conversation)
Minh Phương biên dịch
Nguồn : RFI, 28/04/2026