Bộ quy tắc bảo vệ nhân loại trước trí thông minh nhân tạo

Nguyễn Hà (Trung tâm Tin tức VTV24)-Thứ năm, ngày 09/02/2017 05:00 GMT+7

VTV.vn - Mới đây, các nhà khoa học đã thống nhất đưa ra một bộ quy tắc nhằm đảm bảo rằng trí thông minh nhân tạo luôn suy nghĩ và hành động một cách an toàn.

Các nhà khoa học tin rằng máy móc, robot sẽ sở hữu khả năng tư duy giống con người trong vài thập kỷ tới. Nếu điều đó thành sự thật, chúng có thể tự cải tạo bản thân và tạo ra các vấn đề xã hội. Chính vì thế, một bộ quy tắc nhằm đảm bảo rằng trí thông minh nhân tạo luôn suy nghĩ và hành động một cách an toàn, vì lợi ích của con người, mới đây đã được các nhà khoa học thống nhất đưa ra.

AI Asimolar là tên của bộ quy tắc gồm 23 nội dung mà Stephen Hawking và CEO của Tesla - Elon Musk vừa thông qua về vấn đề trí tuệ nhân tạo, hay còn gọi là AI.

Nội dung của bộ quy tắc này chia làm 3 nhóm: Vấn đề nghiên cứu, Đạo đức và giá trị, Các vấn đề dài hạn.

Các nguyên tắc đề cập đến vũ khí và khả năng tự tái tạo của AI được tạo ra bởi Viện nghiên cứu cuộc sống tương lai (Future of Life Institute). Đây là một viện nghiên cứu phi lợi nhuận, làm việc để bảo vệ tương lai của nhân loại trước sự phát triển của công nghệ. Hawking và Musk nằm trong Ban cố vấn của Viện nghiên cứu này.

Trên website của mình, Future of Life Institute cho biết: "Trí tuệ nhân tạo cung cấp công cụ hữu ích cho người dân trên khắp thế giới sử dụng hàng ngày. Tiếp tục phát triển nó theo những nguyên tắc sau đây, sẽ cung cấp cơ hội tuyệt vời để giúp đỡ và trao quyền cho con người trong nhiều thập kỷ và thế kỷ tiếp theo".

Về vấn đề dài hạn, trong bản quy tắc có nhắc đến vấn đề Superintelligence chỉ được phát triển cho các dịch vụ vì lợi ích cả nhân loại chứ không phải cho một nhà nước hay tổ chức.

Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam tại TV Online!

TIN MỚI

    X

    ĐANG PHÁT

    Bản tin thời tiết chào buổi sáng 3 phút trước