Các nhà khoa học lo sợ về mối đe dọa từ trí tuệ nhân tạo

Các nhà khoa học lo sợ về mối đe dọa từ trí tuệ nhân tạo
Các nhà khoa học lo sợ về mối đe dọa từ trí tuệ nhân tạo

Video: Các nhà khoa học lo sợ về mối đe dọa từ trí tuệ nhân tạo

Video: Các nhà khoa học lo sợ về mối đe dọa từ trí tuệ nhân tạo
Video: Free Fire | NTN thử thách tìm Ngọc Diễm , Đoán sai sẽ ngủ gầm cầu và cái kết ? 2024, Có thể
Anonim

Trí tuệ nhân tạo (AI) tự cải tiến trong tương lai có thể nô dịch hoặc giết người nếu anh ta muốn. Điều này đã được nói bởi nhà khoa học Amnon Eden, người tin rằng rủi ro từ sự phát triển của tư duy tự do và ý thức thông minh cao là rất cao, và "nếu bạn không quan tâm đến các vấn đề kiểm soát AI ở giai đoạn hiện tại của phát triển, thì ngày mai có thể đơn giản là không đến. " Theo tờ Express phiên bản tiếng Anh, nhân loại, theo Amnon Eden, ngày nay đang ở "điểm không thể quay lại" để thực hiện cốt truyện của bộ phim sử thi nổi tiếng "Kẻ hủy diệt".

Điều đáng chú ý là Tiến sĩ Amnon Eden là trưởng dự án với mục tiêu chính là phân tích những tác động tàn phá tiềm tàng của AI. Nhà khoa học tin rằng nếu không hiểu đúng về hậu quả của việc tạo ra trí tuệ nhân tạo, sự phát triển của nó có thể đe dọa đến thảm họa. Hiện tại, xã hội của chúng ta thiếu thông tin về cuộc tranh luận đang diễn ra trong cộng đồng khoa học về việc phân tích tác động tiềm tàng của AI. Eden nói: “Trong năm 2016 sắp tới, việc phân tích các rủi ro có thể xảy ra sẽ phải phổ biến hơn đáng kể trong suy nghĩ của các tập đoàn và chính phủ, các chính trị gia và những người chịu trách nhiệm đưa ra quyết định.

Nhà khoa học chắc chắn rằng khoa học viễn tưởng, mô tả sự hủy diệt nhân loại bởi robot, có thể sớm trở thành vấn đề chung của chúng ta, vì quá trình tạo ra AI đã vượt quá tầm kiểm soát. Ví dụ, Elon Musk, với sự hỗ trợ của doanh nhân Sam Altman, đã quyết định thành lập một tổ chức phi lợi nhuận trị giá 1 tỷ đô la mới phát triển AI mã nguồn mở vượt trội hơn cả trí óc con người. Đồng thời, đích thân tỷ phú người Mỹ Elon Musk cũng xếp trí tuệ nhân tạo vào hàng "những mối đe dọa lớn nhất đối với sự tồn tại của chúng ta." Steve Wozniak, người đồng sáng lập Apple, đã nói vào tháng 3 năm ngoái rằng “tương lai có vẻ khó khăn và rất nguy hiểm cho con người … cuối cùng sẽ đến ngày máy tính sẽ suy nghĩ nhanh hơn chúng ta và chúng sẽ loại bỏ những người chậm chạp để để các công ty có thể hoạt động hiệu quả hơn."

Hình ảnh
Hình ảnh

Điều đáng chú ý là nhiều nhà khoa học nhận thấy mối đe dọa từ AI. Hàng chục nhà khoa học, nhà đầu tư và doanh nhân nổi tiếng, bằng cách này hay cách khác, có hoạt động liên quan đến sự phát triển của trí tuệ nhân tạo, đã ký một bức thư ngỏ kêu gọi quan tâm nhiều hơn đến vấn đề an toàn và tiện ích xã hội của công việc trong lĩnh vực AI. Nhà vật lý thiên văn Stephen Hawking và người sáng lập Tesla và SpaceX Elon Musk là một trong những người ký kết tài liệu này. Bức thư, cùng với một tài liệu đi kèm, được soạn thảo bởi Future of Life Institute (FLI), được viết trong bối cảnh những lo ngại ngày càng tăng về tác động của trí tuệ nhân tạo đối với thị trường lao động và thậm chí là sự tồn tại lâu dài của toàn nhân loại trong một môi trường mà khả năng của robot và máy móc sẽ phát triển gần như không thể kiểm soát được.

Các nhà khoa học hiểu rằng tiềm năng của AI ngày nay là rất lớn, vì vậy cần phải nghiên cứu đầy đủ các khả năng sử dụng nó tối ưu cho chúng ta để tránh những cạm bẫy đi kèm, bức thư FLI lưu ý. Điều bắt buộc là các hệ thống AI do con người tạo ra phải làm chính xác những gì chúng ta muốn chúng làm. Điều đáng chú ý là Viện Tương lai Cuộc sống chỉ được thành lập vào năm ngoái bởi một số người đam mê, trong đó có người sáng tạo ra Skype, Jaan Tallinn, nhằm “giảm thiểu những rủi ro mà nhân loại phải đối mặt” và kích thích nghiên cứu với “tầm nhìn lạc quan của tương lai”. Trước hết, chúng ta đang nói ở đây về những rủi ro gây ra bởi sự phát triển của AI và robot. Ban cố vấn FLI bao gồm Musk và Hawking, cùng với diễn viên nổi tiếng Morgan Freeman và những người nổi tiếng khác. Theo Elon Musk, sự phát triển thiếu kiểm soát của trí tuệ nhân tạo tiềm ẩn nhiều nguy cơ hơn cả vũ khí hạt nhân.

Nhà vật lý thiên văn nổi tiếng người Anh Stephen Hawking vào cuối năm 2015 đã cố gắng giải thích việc ông từ chối các công nghệ AI. Theo quan điểm của ông, theo thời gian, những cỗ máy siêu thông minh sẽ coi con người như vật tiêu hao hay con kiến chỉ đơn giản là can thiệp vào giải pháp nhiệm vụ của họ. Trao đổi với người dùng cổng thông tin Reddit, Stephen Hawking lưu ý rằng ông không tin rằng những cỗ máy siêu thông minh như vậy sẽ là "sinh vật xấu xa" muốn tiêu diệt toàn bộ nhân loại vì trí tuệ vượt trội của chúng. Rất có thể, sẽ có thể nói về việc đơn giản là họ sẽ không để ý đến nhân loại.

Hình ảnh
Hình ảnh

“Các phương tiện truyền thông liên tục xuyên tạc lời nói của tôi gần đây. Rủi ro chính trong sự phát triển của AI không phải là sự ác ý của máy móc mà là năng lực của chúng. Trí tuệ nhân tạo siêu thông minh sẽ hoàn thành xuất sắc công việc, nhưng nếu nó và mục tiêu của chúng ta không trùng khớp, nhân loại sẽ gặp vấn đề rất nghiêm trọng”, nhà khoa học nổi tiếng giải thích. Ví dụ, Hawking trích dẫn một tình huống giả định trong đó một AI siêu mạnh chịu trách nhiệm vận hành hoặc xây dựng một đập thủy điện mới. Đối với một cỗ máy như vậy, ưu tiên sẽ là hệ thống được giao phó sẽ tạo ra bao nhiêu năng lượng, và số phận của con người sẽ không quan trọng. “Có rất ít người trong chúng ta giẫm phải kiến và dẫm lên kiến vì tức giận, nhưng hãy tưởng tượng một tình huống - bạn điều khiển một nhà máy thủy điện mạnh mẽ để tạo ra điện. Nếu bạn cần nâng cao mực nước và kết quả của hành động của bạn là một con kiến sẽ bị ngập, thì vấn đề côn trùng chết đuối khó có thể làm phiền bạn. Chúng ta đừng đặt con người vào vị trí của kiến,”nhà khoa học nói.

Theo Hawking, vấn đề tiềm ẩn thứ hai đối với sự phát triển hơn nữa của trí tuệ nhân tạo, có thể là "sự chuyên chế của những người sở hữu máy móc" - sự gia tăng nhanh chóng của khoảng cách về mức thu nhập giữa những người giàu có khả năng độc quyền sản xuất. của máy móc thông minh và phần còn lại của dân số thế giới. Stephen Hawking đề xuất giải quyết những vấn đề có thể xảy ra này theo cách sau - làm chậm quá trình phát triển AI và chuyển sang phát triển trí tuệ nhân tạo không "phổ thông" mà chuyên biệt cao, chỉ có thể giải quyết một số vấn đề rất hạn chế.

Ngoài Hawking và Musk, bức thư còn được ký bởi người đoạt giải Nobel và giáo sư vật lý MIT Frank Wilczek, giám đốc điều hành Viện nghiên cứu trí tuệ máy (MIRI) Luc Mühlhauser, cũng như nhiều chuyên gia từ các công ty CNTT lớn: Google, Microsoft và IBM, cũng như các doanh nhân đã thành lập các công ty AI Vicarious và DeepMind. Các tác giả của bức thư lưu ý rằng họ không nhằm mục đích khiến công chúng sợ hãi, mà có kế hoạch làm nổi bật cả khía cạnh tích cực và tiêu cực liên quan đến việc tạo ra trí thông minh nhân tạo. “Hiện tại, tất cả mọi người đều đồng ý rằng nghiên cứu trong lĩnh vực AI đang tiến triển ổn định và ảnh hưởng của AI đối với xã hội loài người hiện đại sẽ chỉ tăng lên”, bức thư viết, “những cơ hội mở ra cho con người là rất lớn, mọi thứ mà nền văn minh hiện đại cung cấp đã được tạo ra bởi trí thông minh. con người. Chúng tôi không thể đoán trước được những gì chúng tôi sẽ đạt được nếu trí thông minh của con người có thể được nhân lên nhờ AI, nhưng vấn đề thoát khỏi đói nghèo và bệnh tật không còn là điều khó khăn vô hạn”.

Hình ảnh
Hình ảnh

Nhiều phát triển trong lĩnh vực trí tuệ nhân tạo đã được đưa vào cuộc sống hiện đại, bao gồm hệ thống nhận dạng hình ảnh và giọng nói, phương tiện không người lái và nhiều hơn nữa. Các nhà quan sát của Thung lũng Silicon ước tính rằng hơn 150 công ty khởi nghiệp hiện đang được thực hiện trong lĩnh vực này. Đồng thời, sự phát triển trong lĩnh vực này đang ngày càng thu hút nhiều khoản đầu tư và ngày càng nhiều công ty như Google đang phát triển các dự án của họ dựa trên AI. Do đó, các tác giả của bức thư tin rằng đã đến lúc phải quan tâm nhiều hơn đến tất cả những hậu quả có thể xảy ra của sự bùng nổ quan sát được đối với các khía cạnh kinh tế, xã hội và luật pháp của đời sống con người.

Vị trí mà trí tuệ nhân tạo có thể gây nguy hiểm cho con người là chia sẻ của Nick Bostrom, giáo sư tại Đại học Oxford, người được biết đến với công trình nghiên cứu về nguyên lý nhân học. Chuyên gia này tin rằng AI đã đến thời điểm kéo theo sự không tương thích của nó với con người. Nick Bostrom nhấn mạnh rằng không giống như kỹ thuật di truyền và biến đổi khí hậu, mà các chính phủ đang phân bổ đủ kinh phí để kiểm soát, "không có gì được thực hiện để kiểm soát sự phát triển của AI." Theo giáo sư, một "chính sách về khoảng trống pháp lý cần được lấp đầy" hiện đang được theo đuổi liên quan đến trí tuệ nhân tạo. Ngay cả những công nghệ như ô tô tự lái, vốn có vẻ vô hại và hữu ích, cũng đặt ra một số câu hỏi. Ví dụ, một chiếc xe như vậy có phải thực hiện phanh khẩn cấp để cứu hành khách của mình hay không và ai sẽ chịu trách nhiệm trong trường hợp xảy ra tai nạn do một chiếc xe không người lái gây ra?

Thảo luận về những rủi ro tiềm ẩn, Nick Bostrom lưu ý rằng "máy tính không có khả năng xác định lợi ích và tác hại đối với con người" và "thậm chí không có một chút ý niệm nào về đạo đức con người." Ngoài ra, các chu trình tự cải thiện trong máy tính có thể xảy ra với tốc độ đến nỗi một người không thể theo dõi được và hầu như không thể làm gì được điều này, nhà khoa học cho biết. Nick Bostrom cho biết: “Ở giai đoạn phát triển khi máy tính có thể tự suy nghĩ, không ai có thể dự đoán chắc chắn liệu điều này sẽ dẫn đến hỗn loạn hay cải thiện đáng kể thế giới của chúng ta” ở các nước có khí hậu lạnh sưởi ấm để cải thiện sức khỏe người dân và tăng sức chịu đựng của họ, điều này "có thể đến với trí tuệ nhân tạo."

Hình ảnh
Hình ảnh

Ngoài ra, Bostrom cũng đặt ra vấn đề làm vỡ não bộ của con người nhằm tăng khả năng thông minh sinh học của chúng ta. “Theo nhiều cách, quy trình như vậy có thể hữu ích nếu tất cả các quy trình đều được kiểm soát, nhưng điều gì sẽ xảy ra nếu con chip được cấy ghép có thể tự lập trình lại? Điều này có thể dẫn đến hậu quả gì - dẫn đến sự xuất hiện của siêu nhân hay sự xuất hiện của một chiếc máy tính chỉ trông giống con người? " - giáo sư hỏi. Cách máy tính giải quyết các vấn đề của con người rất khác so với chúng ta. Ví dụ, trong cờ vua, bộ não con người chỉ xem xét một tập hợp các nước đi hẹp và chọn phương án tốt nhất từ chúng. Đổi lại, máy tính sẽ xem xét tất cả các nước đi có thể có, chọn ra nước đi tốt nhất. Đồng thời, máy tính không mong đợi làm khó chịu hoặc bất ngờ đối thủ của nó trong trò chơi. Không giống như con người, chơi cờ vua, một chiếc máy tính có thể thực hiện một bước đi khôn ngoan và tinh vi chỉ một cách tình cờ. Trí tuệ nhân tạo có thể tính toán theo cách tốt nhất - để loại bỏ lỗi khỏi bất kỳ hệ thống nào bằng cách loại bỏ "yếu tố con người" từ đó, nhưng, không giống như con người, robot không sẵn sàng thực hiện những kỳ công có thể cứu mạng con người.

Trong số những thứ khác, sự gia tăng số lượng máy móc thông minh thể hiện giai đoạn của một cuộc cách mạng công nghiệp mới. Đổi lại, điều này có nghĩa là trong tương lai gần, nhân loại sẽ phải đối mặt với những thay đổi xã hội không thể tránh khỏi. Theo thời gian, công việc sẽ trở thành rất nhiều chuyên gia có trình độ cao, vì hầu hết các nhiệm vụ đơn giản đều có thể được thực hiện bởi rô bốt và các cơ chế khác. Các nhà khoa học cho rằng trí tuệ nhân tạo "cần có mắt và có mắt" để hành tinh của chúng ta không biến thành hành tinh hoạt hình "Zhelezyaka", nơi từng là nơi sinh sống của các robot.

Trong điều kiện tự động hóa ngày càng nhiều các quy trình sản xuất, tương lai đã đến. Diễn đàn Kinh tế Thế giới (WEF) đã trình bày báo cáo của mình, theo đó tự động hóa sẽ dẫn đến thực tế là đến năm 2020, hơn 5 triệu người làm việc trong các lĩnh vực khác nhau sẽ mất việc làm. Đây là tác động của robot và hệ thống robot đối với cuộc sống của chúng ta. Để biên soạn báo cáo, các nhân viên của WEF đã sử dụng dữ liệu của 13,5 triệu nhân viên từ khắp nơi trên thế giới. Theo họ, đến năm 2020, tổng nhu cầu về hơn 7 triệu việc làm sẽ biến mất, trong khi mức tăng trưởng việc làm dự kiến trong các ngành khác sẽ chỉ đạt hơn 2 triệu việc làm.

Đề xuất: