Ngày 23/04/2024
Tóm tắt:
Trí tuệ nhân tạo (AI) đang tạo ra những biến đổi sâu sắc trong kinh tế, xã hội và quản trị nhà nước, đặt ra hàng loạt thách thức pháp lý mới chưa từng có tiền lệ. Trong bối cảnh đó, khung pháp lý thử nghiệm có kiểm soát (Regulatory Sandbox – RS) nổi lên như một công cụ quản lý đổi mới, cho phép thử nghiệm công nghệ trong môi trường linh hoạt nhưng vẫn bảo đảm tính kiểm soát và an toàn. Bài viết này phân tích lý do Việt Nam cần gấp rút xây dựng khung pháp lý thử nghiệm cho AI, từ góc độ lý luận pháp lý, kinh nghiệm quốc tế và yêu cầu cấp bách của thực tiễn chuyển đổi số. Trên cơ sở đó, tác giả đề xuất coi RS như một cấu phần quan trọng trong chính sách pháp luật về quản trị công nghệ tại Việt Nam giai đoạn tới.
Từ khóa: Trí tuệ nhân tạo, Regulatory Sandbox, quản trị công nghệ, đổi mới sáng tạo, pháp luật thử nghiệm, chuyển đổi số.
Abstract:
Artificial intelligence (AI) is driving profound transformations across the economy, society, and public governance, posing a range of unprecedented legal challenges. In this context, the Regulatory Sandbox (RS) emerges as an innovative regulatory tool that enables the testing of new technologies within a flexible yet controlled and safe environment. This paper analyzes the imperative for Vietnam to urgently establish a legal sandbox framework for AI, from the perspective of legal theory, international experience, and the pressing demands of digital transformation in practice. On that basis, the author argues that the RS should be recognized as a key component of Vietnam’s future legal and policy approach to technology governance.
Keywords: Artificial Intelligence, Regulatory Sandbox, Technology Governance, Innovation, Experimental Law, Digital Transformation.
1. Đặt vấn đề
Trong bối cảnh trí tuệ nhân tạo (Artificial Intelligence – AI) ngày càng trở thành nền tảng cốt lõi của nền kinh tế tri thức, các hệ thống AI đang thâm nhập sâu rộng vào nhiều lĩnh vực thiết yếu như chăm sóc sức khỏe, dịch vụ tài chính, giao thông thông minh, hệ thống tư pháp, và đặc biệt là quản trị công. Tại Việt Nam, các ứng dụng AI đang được thúc đẩy mạnh mẽ thông qua một loạt chính sách quốc gia, nổi bật là “Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030” được ban hành theo Quyết định số 127/QĐ-TTg ngày 26/01/2021. Văn kiện này xác định rõ vai trò của AI trong chuyển đổi số và định hướng phát triển thành trung tâm đổi mới sáng tạo trong khu vực (Thủ tướng Chính phủ, 2021).
Tuy nhiên, sự phát triển nhanh chóng, mang tính đột phá và khó dự đoán của AI đang vượt xa khả năng phản ứng của hệ thống pháp luật hiện hành. Các văn bản pháp luật cơ bản như Luật An toàn thông tin mạng năm 2015, Luật An ninh mạng năm 2018 hay Luật Giao dịch điện tử năm 2023, dù đã đặt nền móng pháp lý cho môi trường số, nhưng chưa có quy định cụ thể về trách nhiệm pháp lý, kiểm soát thuật toán, tính minh bạch hay khả năng gây thiên vị của hệ thống AI (Nguyễn & Trần, 2024). Đặc biệt, các vấn đề như quyền riêng tư, sử dụng dữ liệu cá nhân trong huấn luyện AI, và quyết định tự động trong các lĩnh vực công quyền vẫn đang nằm ngoài vùng điều chỉnh hiệu quả của các công cụ pháp luật hiện tại (UNESCO, 2021).
Trong bối cảnh đó, mô hình Regulatory Sandbox – một cơ chế thử nghiệm pháp lý có kiểm soát – đã được triển khai thành công ở nhiều quốc gia trong lĩnh vực công nghệ tài chính (FinTech), và gần đây được mở rộng áp dụng sang lĩnh vực AI như một phương thức quản trị công nghệ linh hoạt, thích ứng và kịp thời. Regulatory Sandbox cho phép các chủ thể đổi mới công nghệ được tiến hành thử nghiệm sản phẩm, dịch vụ hoặc mô hình kinh doanh mới trong phạm vi pháp lý được điều chỉnh tạm thời, dưới sự giám sát của cơ quan quản lý nhà nước, nhằm cân bằng giữa mục tiêu thúc đẩy sáng tạo và yêu cầu bảo vệ lợi ích công cộng (Ranchordas, 2021; Nabil, 2024).
Đối với Việt Nam, việc thiết lập Regulatory Sandbox cho AI là không chỉ cần thiết mà còn cấp bách, xét đến ba lý do. Thứ nhất, Việt Nam đang tích cực hội nhập quốc tế về chuyển đổi số và cần một khung thể chế linh hoạt để bắt kịp xu thế quản trị AI toàn cầu. Thứ hai, trong khi các nước như Singapore, Anh, và EU đã bước đầu triển khai các sandbox chuyên biệt cho AI (European Commission, 2022; PDPC Singapore, 2023), Việt Nam vẫn đang thiếu cơ chế tương tự, tạo ra khoảng trống pháp lý nghiêm trọng trong việc thử nghiệm và kiểm chứng các hệ thống AI mới. Thứ ba, Regulatory Sandbox chính là công cụ để đảm bảo rằng sự đổi mới công nghệ tại Việt Nam diễn ra có trách nhiệm, có giám sát, và phù hợp với các nguyên tắc bảo vệ người tiêu dùng, quyền con người và lợi ích công (OECD, 2021). Đây không chỉ là một lựa chọn kỹ thuật, mà là một quyết định chính trị – pháp lý chiến lược để định hình không gian đổi mới sáng tạo bền vững cho quốc gia trong kỷ nguyên AI.
2. Cơ sở lý luận về Regulatory Sandbox trong lĩnh vực trí tuệ nhân tạo
Regulatory Sandbox, hay còn gọi là cơ chế thử nghiệm có kiểm soát, được hiểu là một khuôn khổ pháp lý đặc thù cho phép các doanh nghiệp, tổ chức nghiên cứu hoặc phát triển công nghệ mới được tiến hành thử nghiệm các sản phẩm, dịch vụ hoặc mô hình kinh doanh trong phạm vi giới hạn về thời gian, không gian, và đối tượng, dưới sự giám sát trực tiếp của cơ quan quản lý nhà nước. Trong khuôn khổ này, một số quy định pháp luật hiện hành có thể được miễn trừ tạm thời hoặc điều chỉnh linh hoạt nhằm tạo điều kiện thuận lợi cho đổi mới sáng tạo mà vẫn kiểm soát được rủi ro phát sinh đối với xã hội (Nabil, 2024). Mô hình sandbox được thiết kế để đạt được sự cân bằng tinh tế giữa khuyến khích sáng tạo và đảm bảo an toàn pháp lý, xã hội trong quá trình tiếp cận và triển khai các công nghệ tiên tiến.
Trong lĩnh vực trí tuệ nhân tạo (AI), Regulatory Sandbox tỏ ra đặc biệt phù hợp bởi AI là một công nghệ có tính đột phá cao, nhưng đồng thời cũng ẩn chứa nhiều rủi ro về đạo đức, pháp lý và xã hội. Việc triển khai Regulatory Sandbox trong AI có thể cho phép thử nghiệm các ứng dụng mới trong những lĩnh vực nhạy cảm như y tế, tư pháp hay giáo dục – nơi mà pháp luật hiện hành còn thiếu quy định cụ thể, và các nguyên tắc đạo đức chưa được pháp điển hóa đầy đủ (European Commission, 2022). Thêm vào đó, đối với các doanh nghiệp khởi nghiệp và tổ chức đổi mới sáng tạo, sandbox góp phần tháo gỡ những rào cản pháp lý vốn mang tính chất cứng nhắc, giúp họ có điều kiện đưa sản phẩm vào vận hành thử mà không chịu ngay lập tức toàn bộ trách nhiệm pháp lý như trong thị trường mở. Cơ chế này đồng thời tạo điều kiện để cơ quan quản lý thu thập dữ liệu thực nghiệm từ môi trường kiểm soát, qua đó cải tiến chính sách dựa trên thực tiễn thay vì chỉ dựa vào dự báo lý thuyết (OECD, 2021).
Một giá trị quan trọng khác của Regulatory Sandbox là ở khả năng thúc đẩy tính minh bạch và trách nhiệm giải trình trong quá trình phát triển và ứng dụng AI. Bằng cách đặt hoạt động thử nghiệm dưới sự giám sát của cơ quan quản lý, sandbox giúp giảm thiểu nguy cơ lạm dụng công nghệ, bảo vệ quyền lợi người tiêu dùng và tăng cường niềm tin xã hội đối với các sản phẩm ứng dụng AI. Mô hình này cũng đóng vai trò như một “phòng thí nghiệm chính sách”, nơi cơ quan quản lý có thể học hỏi, điều chỉnh và hoàn thiện các quy định pháp luật dựa trên kinh nghiệm thực tế, thay vì đưa ra các quy định pháp lý cứng nhắc và có thể lỗi thời ngay khi ban hành (Nabil, 2024).
Chính vì vậy, Regulatory Sandbox không chỉ là một công cụ thử nghiệm kỹ thuật, mà còn là phương thức cải cách pháp lý mang tính linh hoạt và thích ứng cao. Nó phản ánh một triết lý quản trị mới – nơi đổi mới sáng tạo không bị bóp nghẹt bởi khuôn khổ pháp lý lạc hậu, nhưng cũng không được thả nổi tự do vượt ngoài tầm kiểm soát của pháp luật. Trong thời đại AI phát triển nhanh chóng và phức tạp, Regulatory Sandbox là mô hình trung gian hữu hiệu giúp nối kết khoảng cách giữa công nghệ và pháp luật, giữa kỳ vọng thị trường và yêu cầu quản lý nhà nước, đồng thời mở đường cho một hệ sinh thái công nghệ vừa sáng tạo vừa có trách nhiệm (OECD, 2021; European Commission, 2022).
3. Kinh nghiệm quốc tế và những khoảng trống tại Việt Nam
Tính đến năm 2024, nhiều quốc gia đã chủ động xây dựng và triển khai các khuôn khổ Regulatory Sandbox chuyên biệt dành cho lĩnh vực trí tuệ nhân tạo nhằm kiểm soát rủi ro công nghệ trong khi vẫn tạo điều kiện cho đổi mới sáng tạo. Liên minh châu Âu là một trong những khu vực tiên phong khi lồng ghép sandbox vào trong cấu trúc của Đạo luật AI (AI Act), vốn được thiết kế theo cách tiếp cận dựa trên rủi ro. Theo đó, các hệ thống AI được xếp vào loại "rủi ro cao" (high-risk AI) sẽ được thử nghiệm trong khuôn khổ pháp lý linh hoạt nhưng dưới sự giám sát chặt chẽ của các cơ quan có thẩm quyền tại các quốc gia thành viên (European Commission, 2022). Những thử nghiệm này cho phép đánh giá không chỉ hiệu năng kỹ thuật mà cả tính tuân thủ các yêu cầu về minh bạch, trách nhiệm giải trình và quyền con người trước khi sản phẩm được thương mại hóa trên thị trường chung.
Tại châu Á, Singapore đã triển khai mô hình AI sandbox thông qua bộ công cụ AI Verify, do Cơ quan Bảo vệ Dữ liệu cá nhân (PDPC) phát triển. AI Verify kết hợp giữa tiêu chuẩn kỹ thuật và các nguyên tắc đạo đức trong phát triển AI, cho phép các doanh nghiệp tự đánh giá mức độ đáng tin cậy của hệ thống AI của mình trước khi đưa ra thị trường (PDPC Singapore, 2023). Trong lĩnh vực y tế, Vương quốc Anh nổi bật với mô hình “AI Airlock” do Cơ quan Quản lý Dược phẩm và Sản phẩm Chăm sóc sức khỏe (MHRA) triển khai, cho phép thử nghiệm AI được tích hợp trong thiết bị y tế dưới điều kiện kiểm soát nhằm đảm bảo an toàn cho bệnh nhân và người sử dụng (MHRA, 2023). Những mô hình này không chỉ cung cấp không gian thử nghiệm linh hoạt mà còn giúp cơ quan quản lý chủ động thu thập thông tin, đánh giá chính sách và thiết kế quy định dựa trên dữ liệu thực nghiệm thay vì dựa hoàn toàn vào giả định lý thuyết.
Tại Việt Nam, mô hình Regulatory Sandbox mới chỉ được dự kiến thiết lập trong lĩnh vực công nghệ tài chính (Fintech), tạo tiền đề cho việc thử nghiệm các mô hình thanh toán không dùng tiền mặt, ví điện tử, và cho vay ngang hàng trong không gian kiểm soát. Tuy nhiên, đối với trí tuệ nhân tạo – lĩnh vực đang phát triển mạnh mẽ và có tiềm năng tác động sâu rộng – Việt Nam vẫn chưa xây dựng được một cơ chế sandbox tương ứng. Điều này đã và đang tạo ra những rào cản đáng kể cho các doanh nghiệp đổi mới sáng tạo, đặc biệt là các startup công nghệ, khi muốn đưa các sản phẩm AI thử nghiệm vào ứng dụng thực tiễn. Họ phải đối mặt với những rủi ro pháp lý lớn do thiếu hành lang pháp lý cụ thể, đặc biệt trong các lĩnh vực liên quan đến xử lý dữ liệu cá nhân, ra quyết định tự động, và xác lập trách nhiệm pháp lý trong trường hợp hệ thống AI gây thiệt hại.
Không chỉ vậy, việc thiếu vắng sandbox trong lĩnh vực AI cũng làm hạn chế khả năng chủ động của cơ quan quản lý trong việc thiết lập chính sách, giám sát các công nghệ mới, và dự báo rủi ro từ sớm. Thực tiễn quốc tế cho thấy sandbox không chỉ là công cụ hỗ trợ doanh nghiệp mà còn là phương tiện để nhà nước thử nghiệm chính sách công nghệ một cách an toàn, linh hoạt và từng bước. Nếu không sớm triển khai sandbox AI, Việt Nam đứng trước nguy cơ tụt hậu trong cuộc đua toàn cầu về đổi mới sáng tạo, đặc biệt khi các quốc gia trong khu vực như Singapore, Hàn Quốc và Trung Quốc đã và đang đẩy mạnh triển khai các cơ chế sandbox tương thích với hệ sinh thái công nghệ số đang hình thành (UNESCAP, 2022).
Việc thiết lập một khung pháp lý thử nghiệm có kiểm soát (Regulatory Sandbox) dành riêng cho trí tuệ nhân tạo tại Việt Nam xuất phát từ các yêu cầu cấp thiết trên nhiều phương diện: định hướng chính sách cấp cao, nhu cầu tạo lập môi trường thử nghiệm an toàn, yêu cầu bảo vệ quyền con người trong bối cảnh AI phát triển nhanh chóng, và xu thế hội nhập pháp lý toàn cầu. Mỗi phương diện này không chỉ có cơ sở lý luận vững chắc mà còn phản ánh các thách thức thực tiễn mà Việt Nam cần giải quyết một cách kịp thời và hệ thống.
Thứ nhất, yêu cầu xây dựng Regulatory Sandbox cho AI xuất phát từ các định hướng chính sách quan trọng của Đảng và Nhà nước, đặc biệt trong bối cảnh chuyển đổi số và phát triển kinh tế số. Nghị quyết số 52-NQ/TW ngày 27/9/2019 của Bộ Chính trị đã khẳng định tầm quan trọng chiến lược của cách mạng công nghiệp lần thứ tư, đồng thời nhấn mạnh đến yêu cầu hoàn thiện thể chế pháp luật phù hợp với công nghệ mới, bao gồm cơ chế thử nghiệm có kiểm soát (sandbox) trong các lĩnh vực công nghệ cao. Việc ban hành Regulatory Sandbox trong lĩnh vực AI vì vậy không đơn thuần là một lựa chọn hành chính, mà là một yêu cầu thể chế mang tính chiến lược, nhằm cụ thể hóa tầm nhìn của Đảng về phát triển công nghệ trong khuôn khổ pháp quyền.
Thứ hai, Regulatory Sandbox giúp tạo lập một môi trường thử nghiệm công nghệ an toàn, nhưng vẫn linh hoạt, qua đó khuyến khích đổi mới sáng tạo có kiểm soát. Các hệ thống AI thường hoạt động theo cơ chế học máy (machine learning) hoặc học sâu (deep learning), với hành vi ngày càng phức tạp và khó dự đoán. Nếu các ứng dụng này được triển khai trực tiếp trong môi trường thực mà không qua giai đoạn thử nghiệm, rủi ro đối với người tiêu dùng, cơ sở hạ tầng kỹ thuật số và an ninh quốc gia là rất lớn. Regulatory Sandbox cho phép nhà phát triển vận hành công nghệ trong điều kiện thực nghiệm có giới hạn và chịu sự giám sát của cơ quan nhà nước có thẩm quyền. Thông qua đó, các lỗ hổng pháp lý và kỹ thuật có thể được phát hiện và xử lý trước khi đưa sản phẩm ra thị trường. Đây là cách tiếp cận dựa trên học hỏi từ thực tiễn – một xu thế quản trị công nghệ hiện đại được nhiều quốc gia phát triển áp dụng (OECD, 2021).
Thứ ba, cơ chế sandbox đóng vai trò như một bộ lọc cần thiết để đảm bảo rằng các hệ thống AI, nhất là trong những lĩnh vực nhạy cảm như y tế, tư pháp và nhận diện khuôn mặt, không vi phạm các quyền cơ bản của con người. AI có thể đưa ra các quyết định ảnh hưởng trực tiếp đến sinh mạng, quyền tự do cá nhân và danh dự của công dân. Nếu không được kiểm tra đầy đủ, các thuật toán có thể mang tính thiên vị, thiếu minh bạch hoặc đưa ra quyết định mà không thể giải thích (black-box decision-making). Sandbox cho phép thử nghiệm các hệ thống AI trong điều kiện giới hạn, từ đó giúp xác định trước những rủi ro về đạo đức và pháp lý mà công nghệ có thể mang lại. Như Ranchordas (2021) chỉ ra, Regulatory Sandbox chính là nơi mà chính sách và rủi ro được đặt trong không gian kiểm soát, cho phép cơ quan nhà nước “thử và sai” một cách có trách nhiệm, thay vì sửa chữa hậu quả sau khi thiệt hại đã xảy ra.
Thứ tư, việc xây dựng sandbox cho AI còn là bước đi cần thiết để Việt Nam hài hòa hóa pháp luật trong nước với các chuẩn mực và thông lệ quốc tế, tạo thuận lợi cho hợp tác kỹ thuật, chuyển giao công nghệ và thu hút đầu tư nước ngoài. Hiện nay, nhiều quốc gia như Liên minh châu Âu (với AI Act), Singapore (với AI Verify), và Vương quốc Anh (với AI Airlock) đã thiết lập các khung sandbox chuyên biệt dành cho AI. Những khung thể chế này không chỉ tạo không gian thử nghiệm mà còn là công cụ để đảm bảo tính tin cậy, minh bạch và khả năng tương tác xuyên biên giới của các hệ thống AI. Nếu không triển khai các cơ chế tương thích, Việt Nam sẽ gặp khó khăn trong việc đàm phán thương mại công nghệ, công nhận lẫn nhau các chuẩn kỹ thuật, và hội nhập vào các chuỗi giá trị số toàn cầu. Do đó, xây dựng Regulatory Sandbox cho AI không chỉ là yêu cầu nội sinh từ quá trình chuyển đổi số trong nước, mà còn là chiến lược đối ngoại nhằm nâng cao năng lực cạnh tranh và chủ quyền công nghệ trong thời đại mới.
4. Kiến nghị chính sách xây dựng Regulatory Sandbox cho trí tuệ nhân tạo tại Việt Nam
Để thiết lập một cơ chế thử nghiệm có kiểm soát (Regulatory Sandbox) hiệu quả, phù hợp với đặc thù phát triển trí tuệ nhân tạo (AI) tại Việt Nam, cần có sự phối hợp chặt chẽ giữa xây dựng khuôn khổ pháp lý, thiết kế thể chế vận hành và bảo đảm tính thích nghi trong triển khai thực tiễn. Dưới đây là các kiến nghị chính sách trọng yếu.
Trước hết, cần ban hành một văn bản quy phạm pháp luật riêng điều chỉnh Regulatory Sandbox cho lĩnh vực trí tuệ nhân tạo, có thể dưới hình thức nghị định của Chính phủ hoặc quyết định của Thủ tướng Chính phủ. Văn bản này phải làm rõ khái niệm sandbox trong lĩnh vực AI, mục đích thử nghiệm, nguyên tắc tổ chức, quyền và nghĩa vụ của chủ thể thử nghiệm, phạm vi điều chỉnh, cũng như các quy trình xin cấp phép, giám sát và kết thúc thử nghiệm. Việc ban hành văn bản riêng là cần thiết để tránh tình trạng áp dụng chồng lấn từ các quy định sandbox trong các lĩnh vực khác (như tài chính hoặc viễn thông) vốn không tương thích với đặc trưng kỹ thuật – pháp lý của trí tuệ nhân tạo. Khuôn khổ này cần phù hợp với nguyên tắc quản trị rủi ro, tôn trọng quyền con người, và khuyến khích đổi mới sáng tạo.
Thứ hai, cần xây dựng một mô hình vận hành đa cơ quan cho sandbox AI, có sự tham gia của các cơ quan chuyên môn như Bộ Khoa học và Công nghệ, Bộ Tư pháp, Bộ Thông tin và Truyền thông, Bộ Công an (trong các trường hợp liên quan đến dữ liệu nhạy cảm) và đại diện cộng đồng khoa học – công nghệ. Sandbox không thể được quản lý đơn tuyến bởi một cơ quan duy nhất, vì AI là công nghệ mang tính chất liên ngành, liên lĩnh vực. Do đó, cần hình thành một Hội đồng quản trị thử nghiệm AI quốc gia (hoặc cơ quan điều phối liên ngành), đóng vai trò phê duyệt, giám sát, đánh giá và điều phối hoạt động thử nghiệm. Mô hình này có thể học hỏi từ cơ chế “AI Coordination Board” trong Đạo luật AI của EU hoặc tổ hợp “Regulatory Inter-Agency Group” tại Singapore.
Thứ ba, quá trình thử nghiệm cần được đặt trong một khung thời gian, không gian và đối tượng giới hạn rõ ràng nhằm kiểm soát rủi ro trong giai đoạn thử nghiệm. Phạm vi thử nghiệm cần xác định rõ: lĩnh vực ứng dụng (ví dụ y tế, giáo dục, hành chính công), địa bàn triển khai (ví dụ trong một khu đô thị thông minh), thời hạn thử nghiệm (từ 12–24 tháng), và nhóm người dùng tham gia (với sự đồng thuận). Việc áp dụng mô hình sandbox không có nghĩa là miễn trừ trách nhiệm pháp lý tuyệt đối, mà là chuyển hóa một phần nghĩa vụ pháp lý thành cơ chế giám sát chủ động. Tại mỗi giai đoạn, kết quả thử nghiệm phải được báo cáo định kỳ và đánh giá bởi cơ quan có thẩm quyền.
Thứ tư, cần ban hành bộ tiêu chí đánh giá hệ thống AI thử nghiệm, trong đó nhấn mạnh đến các nguyên tắc: minh bạch thuật toán, khả năng giải thích, công bằng, không phân biệt đối xử, đảm bảo quyền riêng tư, và an toàn hệ thống. Bộ tiêu chí này sẽ là cơ sở để chấp thuận thử nghiệm, theo dõi trong suốt quá trình vận hành và ra quyết định cho phép ứng dụng thực tiễn hoặc kết thúc thử nghiệm. Tiêu chí này có thể kế thừa từ các khuyến nghị quốc tế như OECD Principles on AI (2019), UNESCO AI Ethics Recommendations (2021), hoặc khung “AI Verify” của Singapore.
Cuối cùng, cần thúc đẩy hợp tác quốc tế và thử nghiệm xuyên biên giới thông qua việc ký kết các thỏa thuận hợp tác kỹ thuật, trao đổi dữ liệu thử nghiệm và công nhận lẫn nhau các tiêu chuẩn sandbox AI với các quốc gia có trình độ công nghệ cao. Điều này không chỉ giúp Việt Nam tiếp cận kinh nghiệm tốt về quản lý sandbox mà còn mở đường cho các doanh nghiệp AI trong nước vươn ra thị trường quốc tế thông qua các mô hình sandbox liên kết. Đây cũng là cơ hội để Việt Nam khẳng định vị trí trên bản đồ công nghệ toàn cầu, không chỉ trong vai trò người tiếp nhận, mà còn là người đồng kiến tạo chính sách công nghệ.
Tóm lại, việc thiết lập Regulatory Sandbox cho AI không chỉ là một bước đi về mặt thể chế, mà còn là một quyết định chiến lược nhằm xây dựng lòng tin, kiểm soát rủi ro và thúc đẩy đổi mới sáng tạo một cách bền vững. Nếu được thiết kế và vận hành đúng cách, Regulatory Sandbox có thể trở thành hạt nhân cho quá trình xây dựng hệ sinh thái AI có trách nhiệm, vì con người, vì sự phát triển bao trùm và vì tương lai số của quốc gia.
TÀI LIỆU THAM KHẢO
European Commission. (2022). Artificial Intelligence and regulatory sandboxes in the EU: Report on early implementations. Publications Office of the European Union. https://ec.europa.eu
MHRA. (2023). Artificial intelligence airlock: Sandbox for medical device AI testing. Medicines and Healthcare products Regulatory Agency (UK). https://www.gov.uk/government/organisations/medicines-and-healthcare-products-regulatory-agency
Nabil, R. (2024). Artificial intelligence regulatory sandboxes: Legal design and policy objectives. AI & Law Review, 18(1), 66–82.
Nguyễn, N. T., & Trần, M. H. (2024). Pháp luật về trí tuệ nhân tạo tại Việt Nam: Khoảng trống và hướng hoàn thiện. Tạp chí Luật học Việt Nam, 2(45), 23–35.
OECD. (2021). OECD framework for the classification of AI systems. Organisation for Economic Co-operation and Development. https://www.oecd.org
PDPC Singapore. (2023). AI Verify: Testing framework for trustworthy AI. Personal Data Protection Commission. https://www.pdpc.gov.sg
Ranchordas, S. (2021). Experimental regulations for AI: Sandboxes for morals and mores. Nomos Law Journal, 12(4), 103–125.
Thủ tướng Chính phủ. (2021). Quyết định số 127/QĐ-TTg ngày 26/01/2021 phê duyệt Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030. Hà Nội: Văn phòng Chính phủ.
UNESCO. (2021). Recommendation on the ethics of artificial intelligence. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org
UNESCAP. (2022). AI governance and innovation in Asia-Pacific: Comparative approaches to regulatory sandboxes. United Nations Economic and Social Commission for Asia and the Pacific. https://www.unescap.org
Lê Đông Hân, Phạm Thanh Thảo, Hoàng Ngọc Như Uyên, Phạm Lê Nhật Minh
Sinh viên Khoa Luật, Trường Đại học Kinh tế - Tài chính TP.HCM