"Nếu phải nghe quá nhiều về sự phát triển AI trong những ngày gần đây thì có lẽ bạn không đơn độc" - Kênh truyền hình CNBC
Các nhà phát triển AI, các nhà đạo đức AI nổi tiếng và cả người đồng sáng lập Microsoft, tỷ phú Bill Gates đã dành cả tuần qua để "bảo vệ công việc" của họ sau bức thư ngỏ có chữ ký của CEO Tesla, Elon Musk và người đồng sáng lập Apple Steve Wozniak.
Cụ thể, cuối tháng 3, bức thư ngỏ do tổ chức phi lợi nhuận Future of Life Institute phát hành có chữ ký của hơn 1.000 người bao gồm Elon Musk, Giám đốc điều hành của Stability AI, Emad Mostaque, các nhà nghiên cứu tại DeepMind thuộc sở hữu của Alphabet, cũng như các chuyên gia có uy tín về AI như Yoshua Bengio và Stuart Russell, kêu gọi tạm dừng 6 tháng với hệ thống đào tạo AI mạnh hơn GPT-4 mới ra mắt của Open AI.
Bức thư, hiện đã có hơn 13.500 chữ ký, bày tỏ lo ngại rằng "cuộc đua nguy hiểm" để phát triển các chương trình như ChatGPT của OpenAI, chatbot Bing AI của Microsoft và Bard của Alphabet có thể gây ra "những hậu quả tiêu cực nếu không được kiểm soát", từ thông tin sai lệch lan rộng đến việc cắt giảm việc làm của con người.
Tuy nhiên, bức thư này đã vấp phải sự phản đối mạnh mẽ với những cái tên lên tiếng cũng nổi tiếng không kém, trong đó có tỷ phú Bill Gates.
"Tôi không nghĩ việc yêu cầu một nhóm cụ thể tạm dừng sẽ giải quyết được các thách thức", Bill Gates nói.
Bill Gates nói thêm, việc tạm dừng sẽ khó thực thi trên với ngành công nghiệp này trên toàn cầu, mặc dù ông đồng ý rằng, cần nghiên cứu thêm để "xác định các lĩnh vực khó khăn".
Phản hồi này khiến cuộc tranh luận trở nên thú vị. Các chuyên gia nhận định: Bức thư ngỏ có thể nêu ra một số lo ngại chính đáng, nhưng giải pháp đề xuất lại khá mơ hồ và dường như khó mà có thể đạt được.
Trong bức thư ngỏ, mối quan tâm được trình bày khá đơn giản: "Những tháng gần đây, các phòng thí nghiệm AI đã bị cuốn vào một cuộc chạy đua ngoài tầm kiểm soát nhằm phát triển và triển khai trí tuệ kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai - kể cả những người tạo ra chúng - có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy".
Theo bức thư, các hệ thống AI thường đi kèm với các thành kiến lập trình và các vấn đề tiềm ẩn về quyền riêng tư. Chúng có thể lan truyền rộng rãi thông tin sai lệch, đặc biệt khi được sử dụng với mục đích ác ý.
Cũng dễ dàng hình dung tương lai gần khi các công ty cố gắng tiết kiệm tiền bằng cách thay thế công việc của con người - từ trợ lý cá nhân đến các dịch vụ khách hàng - bằng hệ thống ngôn ngữ AI.
Italy đã tạm thời cấm ChatGPT trước những lo ngại về dữ liệu và quyền riêng tư. Ngành chức năng Italy thông báo, quyết định chặn ChatGPT có hiệu lực ngay lập tức.
Vương quốc Anh cũng đã khuyến nghị những giải pháp giám sát sự phát triển của AI vào tuần trước.
Trong khi đó, Tổ chức Người tiêu dùng châu Âu cũng kêu gọi các nhà lập pháp trên khắp châu Âu tăng cường các quy định về phát triển AI.
Tại Mỹ, một số thành viên Quốc hội đã kêu gọi ban hành luật mới để điều chỉnh công nghệ AI.
Tháng trước, Ủy ban Thương mại Liên bang đã ban hành hướng dẫn cho các doanh nghiệp phát triển các chatbot với ngầm ý rằng Chính phủ liên bang đang theo dõi chặt chẽ các hệ thống AI có thể được sử dụng bởi những kẻ lừa đảo.
Trong Sách trắng trình Quốc hội, Bộ Khoa học, Đổi mới và Công nghệ Anh (DSIT) nêu 5 nguyên tắc mà Chính phủ Anh muốn các công ty phát triển AI tuân theo. Đó là an toàn, bảo mật và mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; khả năng cạnh tranh và khắc phục.
Bên cạnh đó, nhiều luật về quyền riêng tư của tiểu bang được thông qua vào năm ngoái nhằm mục đích buộc các công ty tiết lộ thời điểm và cách thức hoạt động của các sản phẩm AI, đồng thời cho khách hàng cơ hội từ chối cung cấp dữ liệu cá nhân cho các quyết định do AI tự động hóa.
Những luật đó hiện đang có hiệu lực ở California, Connecticut, Colorado, Utah và Virginia.
Hàn Quốc thành lập hội đồng tư vấn nhằm tạo động lực mạnh mẽ cho sự phát triển của ngành công nghiệp và công nghệ trí tuệ nhân tạo (AI) quy mô lớn trong tương lai. Hội đồng có sự tham gia của 18 tổ chức và doanh nghiệp, trong đó có hai viện nghiên cứu và ba công ty viễn thông hàng đầu của Hàn Quốc.
Ngày 11/4, Cơ quan Không gian mạng Trung Quốc (CAC) đã công bố dự thảo quy định về quản lý các dịch vụ trí tuệ nhân tạo (AI) tạo sinh, trong đó yêu cầu các công ty gửi những đánh giá an ninh cho chính quyền trước khi đưa dịch vụ ra thị trường.
Tại Trung Quốc, một loạt công ty công nghệ hàng đầu như Baidu, SenseTime và Alibaba trong những tuần gầy đây đã giới thiệu các mô hình AI mới, từ chatbot đến sản xuất hình ảnh.
Trong bối cảnh nhiều lo ngại đặt ra với sự phát triển của AI thì ít nhất một công ty nghiên cứu AI vẫn chưa lo lắng.
"Các công nghệ hiện tại không "gây ra mối lo ngại sắp xảy ra", công ty Anthropic chuyên nghiên cứu về AI, có trụ sở tại San Francisco viết trong một bài đăng trên blog vào tháng trước.
Anthropic, đã nhận được khoản đầu tư 400 triệu USD từ Alphabet vào tháng 2 và đã có chatbot AI của riêng mình.
Công ty này đồng thời cũng lưu ý trong bài đăng trên blog rằng, các hệ thống AI trong tương lai có thể trở nên "mạnh mẽ hơn nhiều" trong thập kỷ tới và việc xây dựng các lan can bảo vệ có thể "giúp giảm thiểu rủi ro" trong tương lai.
"Vấn đề là không ai chắc chắn những lan can đó có thể hoặc trông như thế nào", Anthropic viết.
Đại diện của Anthropic nói với CNBC Make It rằng khả năng thúc đẩy "cuộc trò chuyện" về AI của bức thư ngỏ rất hữu ích. Tuy nhiên, người này lại không nói rõ liệu Anthropic có ủng hộ việc tạm dừng 6 tháng hay không.
Trong một tweet mới đăng, Giám đốc điều hành OpenAI, công ty phát triển ChatGPT, Sam Altman thừa nhận rằng "một khung pháp lý toàn cầu hiệu quả bao gồm quản trị dân chủ" và "sự phối hợp đầy đủ" giữa các công ty trí tuệ nhân tạo chung (AGI) hàng đầu có thể giúp ích.
Tuy nhiên Altman đã không nói rõ những chính sách này điều gì, và cũng từ chối trả lời yêu cầu bình luận của CNBC Make It về bức thư ngỏ.
Một số chuyên gia AI đưa ra một vấn đề khác: Việc tạm dừng nghiên cứu có thể kìm hãm sự tiến bộ trong một ngành công nghiệp đang phát triển nhanh và cho phép các những nhóm độc tài phát triển hệ thống AI của riêng họ và vượt lên.
Richard Socher, nhà nghiên cứu về AI và là CEO của công ty khởi nghiệp công cụ tìm kiếm hỗ trợ AI You.com, cho biết việc làm nổi bật các mối đe dọa tiềm tàng của AI có thể khuyến khích những kẻ xấu sử dụng công nghệ này cho các mục đích bất chính.
"Phóng đại tính cấp thiết của những mối đe dọa đó cũng gây ra sự cuồng loạn không cần thiết xung quanh chủ đề này", ông Socher nói. Ông cho biết thêm, các đề xuất của bức thư ngỏ là "không thể thực thi được và nó đã giải quyết vấn đề ở mức độ sai lầm".
Kênh CNBC nhận định: Việc bức thư ngỏ rơi vào im lặng cho thấy rằng những gã khổng lồ công nghệ cũng như các công ty khởi nghiệp AI khó có thể tự nguyện dừng công việc đang làm.
Bức thư kêu gọi tăng cường quy định của chính phủ dường như có nhiều khả năng hơn, đặc biệt là khi các nhà lập pháp ở Mỹ và châu Âu đã và đang thúc đẩy sự minh bạch từ các nhà phát triển AI.
Tại Mỹ, các nhà lập phát cũng có thể thiết lập các quy tắc yêu cầu các nhà phát triển AI chỉ đào tạo các hệ thống mới với các bộ dữ liệu không bao gồm thông tin sai lệch hoặc thiên vị ngầm; tăng cường thử nghiệm các sản phẩm đó trước và sau khi chúng được phát hành ra công chúng. Đây là khuyến nghị đến từ công ty luật Alston & Bird vào cuối năm ngoái.
Stuart Russell, nhà khoa học máy tính ở Đại học Berkeley và là nhà nghiên cứu AI hàng đầu, người đã đồng ký vào bức thư ngỏ, cho biết những nỗ lực như vậy cần phải được thực hiện trước khi công nghệ tiến xa hơn nữa.
Nói với kênh CNN, ông Russell cho biết, rằng việc tạm dừng cũng có thể giúp các công ty công nghệ có thêm thời gian để chứng minh rằng các hệ thống AI tiên tiến của họ không "gây ra rủi ro quá mức".
Dù tranh luận kịch liệt nhưng cả hai bên dường như đều đồng ý về một điều: Các tình huống xấu nhất về sự phát triển AI nhanh chóng đều đáng được ngăn chặn. Trong ngắn hạn, điều đó có nghĩa là cung cấp cho người dùng sản phẩm AI sự minh bạch và bảo vệ họ khỏi những kẻ lừa đảo.
Về lâu dài, điều đó có thể có nghĩa là ngăn không cho các hệ thống AI vượt qua trí thông minh ở cấp độ con người và duy trì khả năng kiểm soát nó một cách hiệu quả.
"Một khi bạn bắt đầu tạo ra những cỗ máy cạnh tranh và vượt qua con người về trí thông minh, chúng ta sẽ rất khó tồn tại. Đó là điều không thể tránh khỏi", Bill Gates nói với BBC vào năm 2015.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!