Trí tuệ nhân tạo (AI) đang bùng nổ mạnh mẽ và ngày càng có nhiều ứng dụng vào đời sống, nhưng đi kèm với nó là rủi ro ngày càng nhiều. Vì vậy, chính phủ các nước trên khắp thế giới, bao gồm cả Mỹ và các nước EU, đang phải tìm cách để có thể hạn chế những rủi ro từ công nghệ này, như thông tin sai lệch làm suy yếu nền dân chủ, mất việc làm do tự động hóa ngày càng tăng, hay mối nguy hại từ nạn tin tặc độc hại do AI cung cấp.

 

Theo tổ chức Precedence Research, tổng chi tiêu cho các hệ thống AI toàn cầu được dự báo sẽ đạt 97,9 tỷ USD vào cuối năm 2023, cao hơn gấp 2,5 lần so với năm 2019. Precedence Research dự báo đến năm 2030 các hệ thống AI toàn cầu sẽ đạt 1600 tỷ USD.

Việc phát triển AI với tốc độ cao hiện nay cũng đi kèm với nhiều rủi ro. Vì vậy mới đây, Nghị viện châu Âu đã biểu quyết thông qua việc kiểm soát công nghệ AI, đặt trọng tâm vào rủi ro dữ liệu, quyền cá nhân hay tính minh bạch. Nghị viện châu Âu muốn các nền tảng trực tuyến như Google, Meta hay Tiktok phải gắn nhãn AI để người dùng thấy rằng “đây không phải nội dung do con người tạo ra” hay “đây là robot đang nói”. Công việc gắn nhãn này gần phải làm thật nhanh và chi tiết. Theo Nghị viện châu Âu, đây là thời điểm thích hợp để kiểm soát AI vì nếu chỉ hy vọng các công ty sẽ tự kiểm soát AI chắc chắn là không đủ để bảo vệ công dân và xã hội. Giờ đây thế giới ngày càng nghe nhiều về việc những người đứng đầu các hãng công nghệ lớn đang cảnh báo về những rủi ro của AI. Việc quản lý, kiểm soát chặt chẽ AI sớm là cần thiết để vừa bảo vệ người dân trên môi trường số cũng như giảm sức ép cạnh tranh cho người lao động và các doanh nghiệp. Mục đích lớn nhất của AI khi ứng dụng vào đời sống là hỗ trợ con người thực hiện các tác vụ, giúp con người tiến lên thực hiện công việc khác tốt hơn, không phải là một thứ khiến con người mất một số công việc nhất định.

Để quản lý AI một cách hiệu quả, Mỹ cũng đã đưa ra kế hoạch đầu tư 140 triệu USD để thành lập 7 viện nghiên cứu AI mới, yêu cầu các cơ quan Chính phủ soạn thảo hướng dẫn sử dụng AI an toàn. Các công ty công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn, trước khi được công khai trước công chúng.

Tháng 5/2023, Chính quyền Tổng thống Biden đã có cuộc họp với những người đứng đầu các công ty công nghệ như Google, Microsoft để bàn về việc phát triển AI hiệu quả và an toàn. Hiện các công ty công nghệ đang phải đối mặt với sự giám sát chặt chẽ hơn từ các cơ quan Liên Bang Mỹ như Ủy ban Thương mại Liên bang hay cơ quan thực thi Luật bảo vệ người tiêu dùng và chống độc quyền. Năm 2022, chính quyền Mỹ đã công bố đề xuất dự luật về quyền AI, kêu gọi các nhà phát triển tôn trọng các nguyên tắc về quyền riêng tư, an toàn và quyền bình đẳng khi họ tạo ra các công cụ AI mới.

Thông điệp chính quyền Biden muốn gửi tới các công ty công nghệ rằng, họ có vai trò quan trọng để giảm thiểu rủi ro và có thể hợp tác với chính phủ. Nhà Trắng sẽ ban hành hướng dẫn cách cơ quan liên bang có thể sử dụng các công cụ AI.

Các Thượng nghị sỹ Mỹ đầu tháng 6 đã giới thiệu 2 dự luật AI. Dự luật thứ nhất yêu cầu các cơ quan trong Chính phủ Mỹ phải thông báo với người dân khi sử dụng AI để tương tác với họ, đồng thời, tạo phương thức để người dân có thể kháng cáo đối với bất kỳ quyết định nào do AI đưa ra. Trong khi đó, dự luật thứ hai đề xuất thành lập Văn phòng phân tích cạnh tranh toàn cầu, với mục đích đảm bảo khả năng cạnh tranh của Mỹ luôn dẫn đầu trong việc phát triển công nghệ AI.

Hôm 1/6/2023 vừa qua, Mỹ và Liên minh châu Âu cho biết đang tiến tới việc soạn thảo một bộ quy tắc ứng xử tự nguyện về AI, mở cho tất cả các nước có cùng quan điểm bảo vệ người dùng trước mặt trái của AI cùng tham gia. Trong bối cảnh sự phát triển của công nghệ này đang gây nhiều lo ngại cho chính phủ các nước, nhà lập pháp và cả người dùng, nhiều nước đang tiến tới xây dựng luật để giải quyết các mối lo ngại về an toàn của các ứng dụng AI. Người tạo ra ứng dụng Chat GPT, ông Sam Altman, đã liên tục kêu gọi chính phủ các nước có tiếng nói nhằm hình thành một khuôn khổ toàn cầu để AI được sử dụng một cách có trách nhiệm.