Những tiến bộ nhanh chóng của trí tuệ nhân tạo (AI) trong thời gian qua đã thu hút sự quan tâm của toàn thế giới. Sự xuất hiện của các công cụ AI có thể sáng tác nhạc, vẽ tranh, viết luận hay lập trình đã khiến nhiều người dùng mê mẩn.
Tuy nhiên mặt khác, sự thông minh của các công cụ AI cũng khiến nhiều người cảm thấy lo lắng, bởi chúng có thể biến đổi hoàn toàn cuộc sống hàng ngày của con người, từ công việc, giáo dục cho đến đến vấn đề bản quyền và quyền riêng tư.
Một khảo sát của Reuters/Ipsos tại Mỹ gần đây cho thấy, 61% số người được hỏi đã bày tỏ lo ngại AI có thể đe dọa tương lai con người.
Sự lo ngại này đã khiến các chính phủ phải đẩy mạnh những nỗ lực nhằm tăng cường quản lý AI. Tại Mỹ, chính phủ đã cho soạn thảo các hướng dẫn sử dụng và phát triển AI, đồng thời khẳng định sẽ sử dụng các công cụ pháp lý để chống lại mối nguy hại liên quan đến công nghệ này.
Trí tuệ nhân tạo đang dần trở thành một phần quan trọng của thế giới. (Ảnh minh họa - Ảnh: sharda)
Còn tại Trung Quốc, cơ quan quản lý không gian mạng cũng đã công bố dự thảo quản lý các dịch vụ AI, buộc các công ty phải gửi đánh giá bảo mật cho cơ quan chức năng, trước khi triển khai các dịch vụ, sản phẩm ra thị trường.
Châu Âu thúc đẩy nỗ lực quản lý trí tuệ nhân tạo
Nỗ lực mạnh mẽ hơn cả đang diễn ra tại Liên minh châu Âu (EU), nơi đang hướng tới việc tạo ra bộ luật đầu tiên trên thế giới về quản lý AI.
Ngày 14/6, Nghị viện châu Âu (EP) đã bỏ phiếu thông qua những đường hướng chính trong dự thảo luật quản lý trí tuệ nhân tạo (AI), do Ủy ban châu Âu đề xuất.
Theo đó, tất cả các nội dung do AI tạo ra sẽ phải được đánh dấu và các ứng dụng sẽ được phân loại theo mức độ rủi ro. Các công ty muốn cung cấp ứng dụng AI tại EU sẽ phải tuân thủ các yêu cầu nghiêm ngặt và có biện pháp quản lý rủi ro cho sản phẩm của mình, nếu không muốn đối mặt với án phạt lên tới 6% tổng doanh thu hàng năm.
Sau cuộc bỏ phiếu, giới lập pháp đã bắt đầu thảo luận chi tiết với các nước thành viên EU. Nếu đạt được thỏa thuận vào cuối năm nay, EU sẽ có bộ luật đầu tiên trên thế giới về quản lý AI trong năm tới và dự kiến có hiệu lực từ năm 2026.
Những điểm tranh cãi trong dự thảo luật của châu Âu
Châu Âu luôn là một trong những khu vực đi đầu trong việc thiết lập các quy định quản lý lĩnh vực công nghệ, ví dụ như về bảo vệ dữ liệu hay mạng xã hội. Tuy nhiên, với một công nghệ đang phát triển nhanh chóng như như AI, thậm chí nhanh hơn tốc độ các nhà lập pháp xây dựng quy định, thách thức sẽ lớn hơn nhiều.
Mặc dù vừa đạt được một bước tiến quan trọng, nỗ lực của châu Âu trong việc xây dựng những quy định quản lý công nghệ AI vẫn còn rất nhiều rào cản. Nhiều điểm chưa rõ ràng và các nhà lập pháp hiện vẫn còn những khác biệt quan điểm trong nhiều vấn đề.
Những chi tiết đang tạo tranh luận mạnh mẽ chủ yếu liên quan đến bảo vệ quyền riêng tư cá nhân và bản quyền, ví dụ như có cho phép trí tuệ nhân tạo theo dõi di chuyển của từng cá nhân ở nơi công cộng hay không. Trung Quốc đang làm như vậy, nhưng với Liên minh châu Âu, làm như vậy là vi phạm quyền riêng tư. Hoặc có hay không cho phép trí tuệ nhân tạo nhận dạng cảm xúc, sau khi Đan Mạch dùng trí tuệ nhân tạo phân tích giọng nói để xác định người gọi điện thoại tới cấp cứu có dấu hiệu sắp ngưng tim hay không.
Chi tiết khác tạo tranh luận là cho phép trí tuệ nhân tạo khai thác thông tin tới mức nào để không tạo ra nội dung bất hợp pháp hoặc vi phạm bản quyền.
Giới công nghệ ủng hộ việc quản lý công cụ trí tuệ nhân tạo
Có thể thấy, các vấn đề đang được giới chức châu Âu tranh luận đều sẽ ảnh hưởng lớn tới sự phát triển của trí tuệ nhân tạo.
Các hãng công nghệ thường có xu hướng phản đối việc thắt chặt kiểm soát. Tuy nhiên, lần này, quan điểm của giới công nghệ nhìn chung đã có nhiều thay đổi trước những lo ngại quá lớn về rủi ro AI có thể mang lại.
Những lo ngại về rủi ro nếu AI được phát triển không đúng cách đã được hàng trăm nhà khoa học và kỹ sư công nghệ lên tiếng cảnh báo.
Hồi tháng 3, một bức thư ngỏ của giới công nghệ, có chữ ký của tỷ phú Elon Musk và nhà đồng sáng lập Apple Steve Wozniak, đã kêu gọi các doanh nghiệp "tạm dừng" phát triển các mô hình AI mới trong vòng nửa năm để xem xét các rủi ro.
Từ các tập đoàn công nghệ lớn như Microsoft, Google, cho tới OpenAI - công ty tạo ra ứng dụng ChatGPT, đều đã lên tiếng bày tỏ sự ủng hộ việc chính phủ các nước có động thái thắt chặt quản lý lĩnh vực công nghệ AI.
AI tạo sinh nhận được sự quan tâm của đông đảo người dùng trên toàn cầu. (Ảnh: Reuters)
CEO Sam Altman của OpenAI còn kêu gọi cần có sự hợp tác giữa các quốc gia, bao gồm cả đề xuất thành lập một cơ quan giám sát quốc tế trong lĩnh vực này.
Những lo ngại về sự kiểm soát công nghệ quá mức
Tuy nhiên, dù đồng ý rằng cần có sự giám sát quản lý, nhiều doanh nghiệp cũng bày tỏ lo ngại, các biện pháp kiểm soát chặt quá mức cần thiết có thể cản trở sự phát triển của công nghệ.
Nhiều luật lệ kiểm soát có thể bóp nghẹt sự phát triển của công nghệ. Đây là ý kiến của một số nhà phát triển ứng dụng trí tuệ nhân tạo, bao gồm giáo sư Rasmus Rothe. Là một nhà nghiên cứu về AI lâu năm, đặc biệt là trong lĩnh vực y tế, ông Rasmus lo ngại rằng việc quá chú trọng đến những rủi ro tiềm ẩn có thể khiến chúng ta đánh mất cơ hội tiếp cận những lợi ích công nghệ này mang lại.
"AI tốt hay xấu còn phụ thuộc vào mục đích sử dụng. AI có thể tạo ra cuộc chiến trên mạng Internet, nhưng cũng có thể dùng để tầm soát tế bào ung thư. Những điều luật kiểm soát quá chặt chẽ từ phía các chính phủ có thể khiến các công ty khởi nghiệp nhỏ bị gò ép và gặp khó khăn trong việc phát triển công nghệ AI", Giáo sư Rasmus Rothe, Nhà đồng sáng lập công ty công nghệ Merantix, đánh giá.
Theo giáo sư Rasmus, một phần quan trọng các tiến bộ AI đến từ các công ty nhỏ, vốn gặp nhiều khó khăn hơn các tập đoàn công nghệ lớn trong việc đáp ứng các quy định chính phủ, do nguồn lực hạn chế. Vì vậy, việc đưa ra các quy định cần được tiến hành một cách thận trọng.
"Việc thắt chặt các quy định quản lý sẽ tạo ra sự bất ổn - điều tồi tệ nhất đối với hoạt động đổi mới sáng tạo. Tôi không phản đối việc đưa ra các quy định, nhưng chúng phải cực kỳ rõ ràng, minh bạch. Quá trình xây dựng các quy định hiện nay vẫn chưa cho thấy điều đó", Giáo sư Rasmus Rothe, Nhà đồng sáng lập công ty công nghệ Merantix, nhận định.
Thực tế cho thấy, quá trình đàm phán để xây dựng các quy tắc về phương tiện truyền thông xã hội, công nghệ viễn thông 5G đều đã chứng kiến những bất đồng gay gắt về cách thức tiếp cận. Với trí tuệ nhân tạo - một công nghệ đang không ngừng phát triển, các chính phủ và giới doanh nghiệp được dự báo sẽ còn gặp nhiều khó khăn hơn gấp bội trong việc tìm kiếm tiếng nói chung.
Sự cân bằng giữa quản lý và thúc đẩy sáng tạo
Các doanh nghiệp vẫn đang băn khoăn về cách thức và mức độ quản lý phù hợp đối với công nghệ AI. Vậy giới chức châu Âu có những giải pháp gì để đảm bảo rằng, các quy định mới sẽ không ảnh hưởng đến sự sáng tạo, đổi mới công nghệ?
Các nghị sĩ đã nêu ra một thực tế, có tới một nửa số công ty khởi nghiệp trong lĩnh vực trí tuệ nhân tạo ở châu Âu đang cân nhắc chuyển đi nước khác, nếu luật lệ quá khắt khe.
Như vậy phải hạn chế mặt trái của trí tuệ nhân tạo, nhưng vẫn không kìm hãm sáng tạo và giữ được các công ty ở lại châu Âu. Vấn đề là công nghệ này phát triển quá nhanh, không thể biết trong tương lai gần sẽ còn xuất hiện thêm những gì. Do vậy dự thảo luật của châu Âu tập trung vào mục đích, không được phép phát triển công nghệ để phục vụ cho những mục đích có hại cho cộng đồng. Biên giới giữa có hại và vô hại không phải lúc nào cũng rõ ràng, đó chính là cái khó khi xây dựng luật này. Quá trình soạn thảo dự luật sẽ mất nhiều thời gian, do tới đây Ủy ban châu Âu phải tham vấn từng nước thành viên.
Có thể thấy, ngay cả khi có được sự ủng hộ từ giới chức các nước, các chuyên gia và doanh nghiệp, việc quản lý công nghệ trí tuệ nhân tạo vẫn là điều không hề dễ dàng. Việc cân bằng giữa quản lý, hạn chế rủi ro, nhưng vẫn tạo đủ không gian để doanh nghiệp sáng tạo, phát triển sẽ là điều các chính phủ cần đảm bảo. Một sự hợp tác quốc tế chặt chẽ cũng là rất cần thiết để thúc đẩy quá trình này.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!