Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?

Mục lục:

Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?
Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?

Video: Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?

Video: Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?
Video: Trước Năm 1975 "Những Người Lính SÀI GÒN Xưa Sử Dụng Ngôn Ngữ Như Thế Nào? 2024, Tháng Ba
Anonim
Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?
Trí tuệ nhân tạo. Phần hai: tuyệt chủng hay bất tử?

Trước khi bạn là phần thứ hai của một bài báo từ loạt bài "Chờ đã, làm thế nào tất cả những điều này có thể là sự thật, tại sao nó vẫn chưa được nói đến ở mọi góc cạnh." Trong loạt phim trước, người ta đã biết rằng một sự bùng nổ trí thông minh đang dần đến với con người trên hành tinh Trái đất, nó đang cố gắng phát triển từ tập trung hạn hẹp sang trí thông minh phổ quát và cuối cùng là siêu trí tuệ nhân tạo.

“Có lẽ chúng ta đang phải đối mặt với một vấn đề cực kỳ khó khăn, và không biết dành bao nhiêu thời gian cho giải pháp của nó, nhưng tương lai của nhân loại có thể phụ thuộc vào giải pháp của nó.” - Nick Bostrom.

Phần đầu tiên của bài báo đã bắt đầu đủ ngây thơ. Chúng tôi đã thảo luận về trí tuệ nhân tạo tập trung trong phạm vi hẹp (AI, chuyên giải quyết một vấn đề cụ thể như xác định đường đi hoặc chơi cờ vua), có rất nhiều thứ trong thế giới của chúng ta. Sau đó, họ phân tích lý do tại sao phát triển trí tuệ nhân tạo định hướng chung (AGI, hay AI, về mặt năng lực trí tuệ, có thể so sánh với con người trong việc giải quyết bất kỳ vấn đề nào) lại khó đến vậy. Chúng tôi kết luận rằng tốc độ tiến bộ công nghệ theo cấp số nhân cho thấy rằng AGI có thể sắp xuất hiện trong thời gian khá sớm. Cuối cùng, chúng tôi quyết định rằng ngay sau khi máy móc đạt đến trí thông minh của con người, những điều sau đây có thể xảy ra ngay lập tức:

Hình ảnh
Hình ảnh
Hình ảnh
Hình ảnh
Hình ảnh
Hình ảnh
Hình ảnh
Hình ảnh

Như thường lệ, chúng ta nhìn vào màn hình, không tin rằng trí tuệ nhân tạo (ISI, thông minh hơn bất kỳ người nào) có thể xuất hiện trong suốt cuộc đời của chúng ta và chọn những cảm xúc phản ánh tốt nhất quan điểm của chúng ta về vấn đề này.

Trước khi đi sâu vào các chi tiết cụ thể của ISI, chúng ta hãy tự nhắc nhở bản thân ý nghĩa của việc một cỗ máy siêu thông minh.

Sự khác biệt chính nằm giữa siêu trí tuệ nhanh và siêu trí tuệ chất lượng. Thông thường, điều đầu tiên xuất hiện trong đầu khi nghĩ về một chiếc máy tính siêu thông minh là nó có thể suy nghĩ nhanh hơn nhiều so với một người - nhanh hơn hàng triệu lần, và trong năm phút, một người sẽ hiểu được những gì sẽ mất mười năm. ("Tôi biết kung fu!")

Nghe có vẻ ấn tượng, và ISI thực sự nên suy nghĩ nhanh hơn bất kỳ người nào - nhưng đặc điểm phân tách chính sẽ là chất lượng trí thông minh của nó, điều này hoàn toàn khác. Con người thông minh hơn khỉ rất nhiều, không phải vì chúng suy nghĩ nhanh hơn, mà vì bộ não của chúng chứa một số mô-đun nhận thức khéo léo thực hiện các biểu diễn ngôn ngữ phức tạp, lập kế hoạch dài hạn, tư duy trừu tượng, điều mà loài khỉ không có khả năng làm được. Nếu bạn tăng tốc bộ não của một con khỉ lên một nghìn lần, nó sẽ không trở nên thông minh hơn chúng ta - thậm chí sau mười năm nó sẽ không thể lắp ráp một bộ xây dựng theo hướng dẫn, điều này sẽ khiến một người mất nhiều nhất vài giờ. Có những điều mà một con khỉ sẽ không bao giờ học được, bất kể nó dành bao nhiêu giờ hay bộ não của nó hoạt động nhanh đến mức nào.

Ngoài ra, con khỉ không biết con người như thế nào, bởi vì bộ não của nó đơn giản là không thể nhận ra sự tồn tại của các thế giới khác - con khỉ có thể biết con người là gì và nhà chọc trời là gì, nhưng sẽ không bao giờ hiểu rằng một tòa nhà chọc trời được xây dựng bởi Mọi người. Trong thế giới của cô, mọi thứ đều thuộc về tự nhiên, và khỉ không những không thể xây một tòa nhà chọc trời, mà còn hiểu rằng bất cứ ai cũng có thể xây dựng nó. Và đây là kết quả của sự khác biệt nhỏ về chất lượng của trí thông minh.

Trong sơ đồ chung về trí thông minh mà chúng ta đang nói đến, hay đơn giản là theo tiêu chuẩn của các sinh vật sinh học, sự khác biệt về chất lượng trí thông minh giữa người và khỉ là rất nhỏ. Trong bài viết trước, chúng tôi đã đặt các khả năng nhận thức sinh học lên bậc thang:

Hình ảnh
Hình ảnh

Để hiểu được mức độ nghiêm trọng của một cỗ máy siêu thông minh, hãy đặt nó cao hơn người trên thang đó hai rãnh. Cỗ máy này có thể chỉ là một chút siêu thông minh, nhưng khả năng vượt trội của nó so với khả năng nhận thức của chúng ta sẽ giống như của chúng ta - hơn khỉ. Và cũng giống như một con tinh tinh sẽ không bao giờ hiểu rằng có thể xây được một tòa nhà chọc trời, chúng ta có thể không bao giờ hiểu được những gì mà một cỗ máy cao hơn vài bước sẽ hiểu được điều gì, ngay cả khi cỗ máy cố gắng giải thích điều đó cho chúng ta. Nhưng đây chỉ là một vài bước. Cỗ máy thông minh hơn sẽ nhìn thấy kiến trong chúng ta - nó sẽ dạy chúng ta những điều đơn giản nhất từ vị trí của nó trong nhiều năm, và những nỗ lực này sẽ hoàn toàn vô vọng.

Loại trí tuệ siêu việt mà chúng ta sẽ nói đến hôm nay vượt xa bậc thang này. Đây là một sự bùng nổ của trí thông minh - khi một chiếc xe càng thông minh, nó có thể tăng trí thông minh của chính mình nhanh hơn, tăng dần động lực. Có thể mất nhiều năm để một cỗ máy như thế này vượt qua tinh tinh về trí thông minh, nhưng có lẽ một vài giờ để vượt qua chúng ta một vài khía. Kể từ thời điểm đó, chiếc xe đã có thể nhảy qua bốn bước mỗi giây. Đó là lý do tại sao chúng ta nên hiểu rằng rất nhanh sau khi tin tức đầu tiên rằng cỗ máy đã đạt đến mức trí thông minh của con người xuất hiện, chúng ta có thể phải đối mặt với thực tế cùng tồn tại trên Trái đất với một thứ sẽ cao hơn chúng ta rất nhiều trên bậc thang này (hoặc có thể, và cao hơn hàng triệu lần):

Hình ảnh
Hình ảnh

Và vì chúng ta đã xác định rằng việc cố gắng hiểu sức mạnh của một cỗ máy chỉ cao hơn chúng ta hai bậc là hoàn toàn vô ích, chúng ta hãy xác định một lần và mãi mãi rằng không có cách nào để hiểu ISI sẽ làm gì và hậu quả của điều này sẽ dành cho chúng tôi. Bất cứ ai tuyên bố ngược lại chỉ đơn giản là không hiểu siêu trí tuệ nghĩa là gì.

Quá trình tiến hóa đã từng bước tiến hóa bộ não sinh học qua hàng trăm triệu năm, và nếu con người tạo ra một cỗ máy siêu thông minh, theo một nghĩa nào đó, chúng ta sẽ vượt qua quá trình tiến hóa. Hoặc nó sẽ là một phần của quá trình tiến hóa - có lẽ sự tiến hóa hoạt động theo cách mà trí thông minh phát triển dần dần cho đến khi nó đạt đến một bước ngoặt báo trước một tương lai mới cho tất cả các sinh vật:

Hình ảnh
Hình ảnh

Vì những lý do mà chúng ta sẽ thảo luận ở phần sau, một bộ phận rất lớn trong cộng đồng khoa học tin rằng câu hỏi không phải là liệu chúng ta có đạt được điểm tới hạn này hay không, mà là khi nào.

Chúng ta sẽ đi đến đâu sau chuyện này?

Tôi nghĩ rằng không ai trên thế giới này, cả tôi và bạn, có thể nói trước được điều gì sẽ xảy ra khi chúng ta đạt đến điểm giới hạn. Nhà triết học Oxford và nhà lý thuyết AI hàng đầu Nick Bostrom tin rằng chúng ta có thể tổng hợp tất cả các kết quả có thể thành hai loại lớn.

Đầu tiên, nhìn vào lịch sử, chúng ta biết những điều sau đây về sự sống: các loài xuất hiện, tồn tại trong một thời gian nhất định, và sau đó tất yếu rơi khỏi chùm cân bằng và chết đi.

Hình ảnh
Hình ảnh

"Tất cả các loài sẽ chết" đã là một quy luật đáng tin cậy trong lịch sử như "tất cả mọi người sẽ chết vào một ngày nào đó." 99,9% số loài đã rơi khỏi khúc gỗ còn sống, và điều khá rõ ràng là nếu một loài bị treo trên khúc gỗ này quá lâu, một cơn gió tự nhiên hoặc một tiểu hành tinh đột ngột sẽ làm khúc gỗ bị lật. Bostrom gọi sự tuyệt chủng là trạng thái hấp dẫn - một nơi mà tất cả các loài cân bằng để không rơi xuống nơi chưa có loài nào quay trở lại.

Và mặc dù hầu hết các nhà khoa học thừa nhận rằng ISI sẽ có khả năng khiến con người tuyệt chủng, nhưng nhiều người cũng tin rằng việc sử dụng các khả năng của ISI sẽ cho phép các cá nhân (và cả loài nói chung) đạt được trạng thái thu hút thứ hai - loài bất tử. Bostrom tin rằng sự bất tử của một loài cũng hấp dẫn như sự tuyệt chủng của một loài, nghĩa là, nếu chúng ta đạt được điều này, chúng ta sẽ phải chịu đựng sự tồn tại vĩnh cửu. Vì vậy, ngay cả khi tất cả các loài cho đến bây giờ rơi từ cây gậy này vào vòng xoáy của sự tuyệt chủng, Bostrom tin rằng khúc gỗ có hai mặt, và đơn giản là trên Trái đất đã không xuất hiện một trí thông minh như vậy có thể hiểu cách rơi sang phía bên kia.

Hình ảnh
Hình ảnh

Nếu Bostrom và những người khác đúng và đánh giá theo tất cả thông tin có sẵn cho chúng tôi, họ có thể đúng như vậy, chúng tôi cần phải chấp nhận hai sự thật rất sốc:

Sự xuất hiện của ISI lần đầu tiên trong lịch sử sẽ mở ra con đường cho một loài đạt được sự bất tử và thoát khỏi chu kỳ tuyệt chủng chết người.

Sự xuất hiện của ISI sẽ có tác động to lớn không thể tưởng tượng đến mức, rất có thể, nó sẽ đẩy nhân loại ra khỏi khúc gỗ này theo hướng này hay hướng khác.

Có thể là khi sự tiến hóa đạt đến một bước ngoặt như vậy, nó luôn đặt dấu chấm hết cho mối quan hệ của con người với dòng sự sống và tạo ra một thế giới mới, có hoặc không có con người.

Điều này dẫn đến một câu hỏi thú vị mà chỉ một kẻ ăn cắp vặt mới không hỏi: khi nào chúng ta sẽ đến điểm giới hạn này và nó sẽ đặt chúng ta ở đâu? Không ai trên thế giới biết câu trả lời cho câu hỏi kép này, nhưng nhiều người thông minh đã cố gắng tìm ra nó trong nhiều thập kỷ. Đối với phần còn lại của bài viết, chúng tôi sẽ tìm hiểu xem chúng đến từ đâu.

* * *

Hãy bắt đầu với phần đầu tiên của câu hỏi này: khi nào chúng ta nên đạt đến điểm giới hạn? Nói cách khác: còn bao nhiêu thời gian nữa cho đến khi chiếc máy đầu tiên đạt đến trí tuệ siêu việt?

Các ý kiến khác nhau tùy từng trường hợp. Nhiều người, bao gồm Giáo sư Vernor Vinge, nhà khoa học Ben Herzel, người đồng sáng lập Sun Microsystems Bill Joy, nhà tương lai học Ray Kurzweil, đã đồng ý với chuyên gia máy học Jeremy Howard khi ông trình bày biểu đồ sau tại TED Talk:

Hình ảnh
Hình ảnh

Những người này chia sẻ quan điểm rằng ISI sẽ sớm ra mắt - sự tăng trưởng theo cấp số nhân này, dường như chậm lại đối với chúng ta ngày nay, sẽ bùng nổ theo đúng nghĩa đen trong vài thập kỷ tới.

Những người khác, như đồng sáng lập Microsoft Paul Allen, nhà tâm lý học nghiên cứu Gary Marcus, chuyên gia máy tính Ernest Davis và doanh nhân công nghệ Mitch Kapor, tin rằng những nhà tư tưởng như Kurzweil đang đánh giá thấp tầm quan trọng của vấn đề và cho rằng chúng ta không gần bằng điểm tới hạn.

Trại của Kurzweil lập luận rằng sự đánh giá thấp duy nhất xảy ra là việc coi thường tốc độ tăng trưởng theo cấp số nhân, và những người nghi ngờ có thể được so sánh với những người đã xem xét internet đang bùng nổ chậm rãi vào năm 1985 và cho rằng nó sẽ không có tác động gì đến thế giới trong tương lai gần.

Những người nghi ngờ có thể chống lại rằng việc thực hiện từng bước tiếp theo sẽ khó khăn hơn khi nói đến sự phát triển theo cấp số nhân của trí thông minh, điều này làm vô hiệu hóa bản chất cấp số nhân điển hình của tiến bộ công nghệ. Vân vân.

Trại thứ ba, trong đó Nick Bostrom, không đồng ý với trại thứ nhất hoặc thứ hai, cho rằng a) tất cả điều này hoàn toàn có thể xảy ra trong tương lai gần; và b) không có gì đảm bảo rằng điều này sẽ xảy ra hoặc sẽ mất nhiều thời gian hơn.

Những người khác, như nhà triết học Hubert Dreyfus, tin rằng cả ba nhóm đều ngây thơ tin rằng sẽ có một thời điểm nào đó xảy ra, và rất có thể chúng ta sẽ không bao giờ đến được ISI.

Điều gì xảy ra khi chúng ta đặt tất cả những ý kiến này lại với nhau?

Vào năm 2013, Bostrom đã thực hiện một cuộc khảo sát, trong đó ông đã phỏng vấn hàng trăm chuyên gia AI tại một loạt hội nghị về chủ đề sau: "Dự đoán của bạn về việc đạt được AGI ở cấp độ con người là gì?" và yêu cầu chúng tôi đặt tên cho một năm lạc quan (trong đó chúng tôi sẽ có AGI với 10% cơ hội), một giả định thực tế (một năm mà chúng ta sẽ có AGI với xác suất 50%) và một giả định tự tin (năm sớm nhất trong đó AGI sẽ xuất hiện kể từ xác suất 90 phần trăm). Đây là kết quả:

* Năm lạc quan trung bình (10%): 2022

* Năm thực tế trung bình (50%): 2040

* Năm bi quan trung bình (90%): 2075

Những người được hỏi trung bình tin rằng trong 25 năm nữa chúng ta sẽ có AGI chứ không phải là không. 90% khả năng AGI xảy ra vào năm 2075 có nghĩa là nếu bây giờ bạn vẫn còn khá trẻ, rất có thể nó sẽ xảy ra trong cuộc đời bạn.

Một nghiên cứu riêng biệt gần đây được thực hiện bởi James Barratt (tác giả của cuốn sách nổi tiếng và rất hay Phát minh mới nhất của chúng ta, trích từ Tôi trình bày trước sự chú ý của độc giả Hi-News.ru) và Ben Hertzel tại Hội nghị AGI, Hội nghị AGI hàng năm, chỉ đơn giản là đưa ra ý kiến của mọi người về năm mà chúng ta đạt được AGI: 2030, 2050, 2100, muộn hơn hoặc không bao giờ. Đây là kết quả:

* 2030: 42% số người được hỏi

* 2050: 25%

* 2100: 20%

Sau 2100: 10%

Không bao giờ: 2%

Tương tự với kết quả của Bostrom. Trong cuộc thăm dò của Barratt, hơn 2/3 số người được hỏi tin rằng AGI sẽ có mặt ở đây vào năm 2050, và chưa đến một nửa tin rằng AGI sẽ xuất hiện trong 15 năm tới. Một điều đáng chú ý nữa là về nguyên tắc, chỉ có 2% số người được hỏi không nhìn thấy AGI trong tương lai của chúng ta.

Nhưng AGI không phải là một điểm tới hạn như ISI. Theo các chuyên gia, khi nào chúng ta sẽ có ISI?

Bostrom đã hỏi các chuyên gia khi nào chúng ta sẽ đạt được ASI: a) hai năm sau khi đạt AGI (tức là gần như ngay lập tức do sự bùng nổ của trí thông minh); b) sau 30 năm. Kết quả?

Ý kiến trung bình cho rằng sự chuyển đổi nhanh chóng từ AGI sang ISI sẽ xảy ra với xác suất 10%, nhưng trong 30 năm hoặc ít hơn nó sẽ xảy ra với xác suất 75%.

Từ dữ liệu này, chúng tôi không biết ngày nào những người trả lời sẽ gọi là 50% cơ hội của ASI, nhưng dựa trên hai câu trả lời ở trên, hãy giả sử đó là 20 năm. Đó là, các chuyên gia AI hàng đầu thế giới tin rằng bước ngoặt sẽ đến vào năm 2060 (AGI sẽ xuất hiện vào năm 2040 + sẽ mất 20 năm cho quá trình chuyển đổi từ AGI sang ISI).

Hình ảnh
Hình ảnh

Tất nhiên, tất cả các số liệu thống kê trên chỉ là suy đoán và chỉ đơn giản là đại diện cho ý kiến của các chuyên gia trong lĩnh vực trí tuệ nhân tạo, nhưng chúng cũng chỉ ra rằng hầu hết những người quan tâm đều đồng ý rằng vào năm 2060, AI có khả năng xuất hiện. Chỉ trong 45 năm.

Hãy chuyển sang câu hỏi thứ hai. Khi chúng ta đến điểm giới hạn, bên nào của sự lựa chọn chết người sẽ quyết định chúng ta?

Sự thông minh vượt trội sẽ có sức mạnh mạnh mẽ nhất, và câu hỏi quan trọng đối với chúng ta sẽ là:

Ai hoặc điều gì sẽ kiểm soát quyền lực này và đâu sẽ là động lực của họ?

Câu trả lời cho câu hỏi này sẽ phụ thuộc vào việc liệu ISI có được một sự phát triển cực kỳ mạnh mẽ, một sự phát triển vô cùng đáng sợ hay một thứ gì đó ở giữa.

Tất nhiên, cộng đồng chuyên gia cũng đang cố gắng trả lời những câu hỏi này. Cuộc thăm dò của Bostrom đã phân tích khả năng hậu quả có thể xảy ra do tác động của AGI đối với nhân loại, và hóa ra là với 52% khả năng mọi thứ sẽ diễn ra rất tốt và 31% khả năng là mọi thứ sẽ trở nên tồi tệ hoặc cực kỳ tồi tệ. Cuộc thăm dò được đính kèm ở cuối phần trước của chủ đề này, được thực hiện giữa các bạn, những độc giả thân yêu của Hi-News, cho kết quả tương tự. Đối với một kết quả tương đối trung lập, xác suất chỉ là 17%. Nói cách khác, chúng tôi đều tin rằng AGI sẽ là một thương vụ lớn. Cũng cần lưu ý rằng cuộc khảo sát này liên quan đến sự xuất hiện của AGI - trong trường hợp ISI, tỷ lệ trung lập sẽ thấp hơn.

Trước khi chúng ta đi sâu hơn vào suy nghĩ về mặt tốt và mặt xấu của câu hỏi, chúng ta hãy kết hợp cả hai mặt của câu hỏi - "khi nào điều này sẽ xảy ra?" và "điều này tốt hay xấu?" thành một bảng bao gồm quan điểm của hầu hết các chuyên gia.

Hình ảnh
Hình ảnh

Chúng ta sẽ nói về trại chính sau một phút nữa, nhưng trước tiên hãy quyết định vị trí của bạn. Rất có thể, bạn đang ở cùng một nơi với tôi trước khi tôi bắt đầu làm việc với chủ đề này. Có một số lý do khiến mọi người không nghĩ về chủ đề này:

* Như đã đề cập ở phần đầu, các bộ phim đã nhầm lẫn nghiêm trọng giữa con người và sự thật, đưa ra những viễn cảnh phi thực tế với trí tuệ nhân tạo, dẫn đến việc chúng ta không nên coi trọng AI một chút nào. James Barratt đã ví tình huống này giống như việc Trung tâm Kiểm soát Dịch bệnh (CDC) đưa ra lời cảnh báo nghiêm trọng về ma cà rồng trong tương lai của chúng ta.

* Do cái gọi là thành kiến nhận thức, chúng ta rất khó tin rằng điều gì đó là có thật cho đến khi chúng ta có bằng chứng. Người ta có thể tự tin tưởng tượng rằng các nhà khoa học máy tính của năm 1988 thường xuyên thảo luận về những hậu quả sâu rộng của Internet và những gì nó có thể trở thành, nhưng mọi người hầu như không tin rằng nó sẽ thay đổi cuộc sống của họ cho đến khi nó thực sự xảy ra. Chỉ là máy tính không biết cách làm điều này vào năm 1988, và mọi người chỉ nhìn vào máy tính của họ và nghĩ, “Thật sao? Đây có phải là điều sẽ thay đổi thế giới? Trí tưởng tượng của họ bị giới hạn bởi những gì họ học được từ kinh nghiệm cá nhân, họ biết máy tính là gì, và rất khó để tưởng tượng máy tính sẽ có khả năng như thế nào trong tương lai. Điều tương tự cũng đang xảy ra với AI. Chúng tôi nghe nói rằng nó sẽ trở thành một vấn đề nghiêm trọng, nhưng vì chúng tôi chưa gặp mặt trực tiếp và nói chung, chúng tôi quan sát thấy những biểu hiện khá yếu ớt của AI trong thế giới hiện đại của chúng tôi, chúng tôi khá khó tin rằng nó sẽ hoàn toàn thay đổi cuộc sống của chúng ta. Để chống lại những định kiến này, nhiều chuyên gia từ tất cả các trại, cũng như những người quan tâm, phản đối việc cố gắng thu hút sự chú ý của chúng ta thông qua sự ồn ào của chủ nghĩa vị kỷ tập thể hàng ngày.

* Ngay cả khi chúng ta tin vào tất cả những điều này - đã bao nhiêu lần hôm nay bạn nghĩ về sự thật rằng bạn sẽ dành phần còn lại của cõi đời đời trong hư vô? Một chút, đồng ý. Ngay cả khi sự thật này quan trọng hơn nhiều so với bất cứ điều gì bạn làm ngày này qua ngày khác. Điều này là do bộ não của chúng ta thường tập trung vào những việc nhỏ nhặt hàng ngày, bất kể chúng ta đang ở trong tình huống dài hạn có ảo tưởng đến mức nào. Nó chỉ là chúng tôi được tạo ra.

Một trong những mục tiêu của bài viết này là đưa bạn ra khỏi trại gọi là "Tôi thích nghĩ về những điều khác" và đưa bạn vào trại chuyên gia, ngay cả khi bạn chỉ đang đứng ở ngã tư giữa hai đường chấm trong hình vuông. ở trên, hoàn toàn chưa quyết định.

Trong quá trình nghiên cứu, rõ ràng là ý kiến của hầu hết mọi người nhanh chóng trôi về phía "trại chính", và 3/4 số chuyên gia rơi vào hai phân đoạn trong trại chính.

Hình ảnh
Hình ảnh

Chúng tôi sẽ thăm đầy đủ cả hai trại này. Hãy bắt đầu với niềm vui.

Tại sao tương lai có thể là giấc mơ lớn nhất của chúng ta?

Khi chúng tôi khám phá thế giới AI, chúng tôi nhận thấy rất nhiều người trong vùng an toàn của chúng tôi đáng ngạc nhiên. Những người ở quảng trường phía trên bên phải đang xôn xao vì phấn khích. Họ tin rằng chúng tôi sẽ rơi vào mặt tốt của khúc gỗ, và họ cũng tin rằng chúng tôi chắc chắn sẽ đạt được điều này. Đối với họ, tương lai là tất cả những gì tốt đẹp nhất chỉ có thể mơ ước.

Điểm phân biệt những người này với những người có suy nghĩ khác không phải là họ muốn ở bên hạnh phúc - mà là họ chắc chắn rằng chính cô ấy là người đang chờ đợi chúng ta.

Sự tự tin này khỏi phải bàn cãi. Các nhà phê bình tin rằng nó xuất phát từ sự phấn khích chói lọi làm lu mờ những mặt tiêu cực tiềm ẩn. Nhưng những người ủng hộ nói rằng những dự đoán u ám luôn là ngây thơ; công nghệ tiếp tục và sẽ luôn giúp chúng ta nhiều hơn là làm hại chúng ta.

Bạn có thể tự do lựa chọn bất kỳ ý kiến nào trong số này, nhưng hãy gạt sự hoài nghi sang một bên và nhìn kỹ vào khía cạnh hạnh phúc của chùm cân bằng, cố gắng chấp nhận sự thật rằng mọi thứ bạn đọc được có thể đã xảy ra. Nếu bạn cho những người săn bắn hái lượm thấy thế giới tiện nghi, công nghệ và sự phong phú vô tận của chúng ta, đối với họ, đó dường như là một câu chuyện viễn tưởng kỳ diệu - và chúng ta cư xử khá khiêm tốn, không thể thừa nhận rằng chính sự biến đổi không thể hiểu nổi đang chờ chúng ta trong tương lai.

Nick Bostrom mô tả ba con đường mà một hệ thống AI siêu thông minh có thể thực hiện:

* Một nhà tiên tri có thể trả lời bất kỳ câu hỏi chính xác nào, kể cả những câu hỏi khó mà con người không thể trả lời - ví dụ, "làm thế nào để làm cho động cơ ô tô hiệu quả hơn?" Google là một loại "tiên tri" nguyên thủy.

* Một thần đèn sẽ thực hiện bất kỳ lệnh cấp cao nào - sử dụng trình lắp ráp phân tử để tạo ra một phiên bản động cơ ô tô mới, hiệu quả hơn - và sẽ chờ lệnh tiếp theo.

* Một người có chủ quyền sẽ có quyền tiếp cận rộng rãi và khả năng hoạt động tự do trên thế giới, đưa ra quyết định của riêng mình và cải thiện quy trình. Anh ấy sẽ phát minh ra một phương tiện giao thông cá nhân rẻ hơn, nhanh hơn và an toàn hơn so với ô tô.

Những câu hỏi và nhiệm vụ này, có vẻ khó đối với chúng ta, sẽ có vẻ như đối với hệ thống siêu thông minh như thể ai đó yêu cầu cải thiện tình huống “bút chì của tôi rơi khỏi bàn”, trong đó bạn chỉ cần nhặt nó lên và đặt lại.

Eliezer Yudkowski, một chuyên gia người Mỹ về trí tuệ nhân tạo, đã nói rõ:

“Không có vấn đề khó, chỉ có vấn đề khó đối với một mức độ thông minh nhất định. Tiến lên một bước cao hơn (về trí thông minh), và một số vấn đề sẽ đột ngột chuyển từ phạm trù "không thể" sang phạm trù "hiển nhiên". Cao hơn một bước - và tất cả chúng sẽ trở nên hiển nhiên."

Có rất nhiều nhà khoa học, nhà phát minh và doanh nhân thiếu kiên nhẫn đã chọn một khu vực thoải mái tự tin từ bàn của chúng tôi, nhưng chúng tôi chỉ cần một người hướng dẫn để bước đi cho những gì tốt nhất trong thế giới tốt nhất này.

Ray Kurzweil mơ hồ. Một số thần tượng ý tưởng của anh ấy, một số coi thường anh ấy. Một số ở giữa - Douglas Hofstadter, khi thảo luận về ý tưởng của những cuốn sách của Kurzweil, đã lưu ý một cách hùng hồn rằng "cứ như thể bạn lấy rất nhiều thức ăn ngon và một ít phân chó, rồi trộn mọi thứ theo cách không thể hiểu được. điều gì là tốt và điều gì là xấu."

Dù bạn có thích ý tưởng của anh ấy hay không, bạn cũng không thể nào lướt qua chúng mà không có bóng dáng của sự quan tâm. Ông bắt đầu phát minh ra nhiều thứ khi còn là một thiếu niên, và trong những năm tiếp theo, ông đã phát minh ra một số thứ quan trọng, bao gồm máy quét phẳng đầu tiên, máy quét đầu tiên chuyển văn bản thành giọng nói, bộ tổng hợp âm nhạc Kurzweil nổi tiếng (chiếc đàn piano điện thực sự đầu tiên), và trình nhận dạng giọng nói thành công về mặt thương mại đầu tiên. Ông cũng là tác giả của năm cuốn sách giật gân. Kurzweil được đánh giá cao vì những dự đoán táo bạo và thành tích của ông khá tốt - vào cuối những năm 80, khi Internet vẫn còn sơ khai, ông dự đoán rằng vào những năm 2000, Web sẽ trở thành một hiện tượng toàn cầu. Tờ Wall Street Journal gọi Kurzweil là "thiên tài không ngừng nghỉ", Forbes là "cỗ máy tư duy toàn cầu", Inc. Tạp chí - "Người thừa kế hợp pháp của Edison", Bill Gates - "người giỏi nhất trong số những người dự đoán tương lai của trí tuệ nhân tạo." Vào năm 2012, người đồng sáng lập Google, Larry Page đã mời Kurzweil vào vị trí CTO. Năm 2011, ông đồng sáng lập Đại học Singularity, được tổ chức bởi NASA và được tài trợ một phần bởi Google.

Tiểu sử của anh ấy quan trọng. Khi Kurzweil nói về tầm nhìn của mình về tương lai, nghe có vẻ như điên rồ, nhưng điều thực sự điên rồ về nó là anh ấy không hề điên - anh ấy là một người cực kỳ thông minh, có học thức và lành mạnh. Bạn có thể nghĩ rằng anh ấy đã sai trong dự đoán của mình, nhưng anh ấy không phải là một kẻ ngốc. Dự đoán của Kurzweil được chia sẻ bởi nhiều chuyên gia về vùng thoải mái, Peter Diamandis và Ben Herzel. Đây là những gì anh ấy nghĩ sẽ xảy ra.

Niên đại

Kurzweil tin rằng máy tính sẽ đạt đến cấp độ trí tuệ nhân tạo chung (AGI) vào năm 2029, và vào năm 2045, chúng ta sẽ không chỉ có siêu trí tuệ nhân tạo, mà còn có một thế giới hoàn toàn mới - thời của cái gọi là điểm kỳ dị. Trình tự thời gian của AI vẫn bị coi là phóng đại quá mức, nhưng trong 15 năm qua, sự phát triển nhanh chóng của các hệ thống trí tuệ nhân tạo (AI) tập trung cao độ đã buộc nhiều chuyên gia phải đứng về phía Kurzweil. Những dự đoán của ông vẫn còn tham vọng hơn những dự đoán trong cuộc khảo sát của Bostrom (AGI vào năm 2040, ISI vào năm 2060), nhưng không nhiều.

Theo Kurzweil, Sự kỳ lạ của năm 2045 đang được thúc đẩy bởi ba cuộc cách mạng đồng thời trong công nghệ sinh học, công nghệ nano và quan trọng hơn là AI. Nhưng trước khi chúng ta tiếp tục - và công nghệ nano đang theo sát trí tuệ nhân tạo - chúng ta hãy dành một chút thời gian cho công nghệ nano.

Hình ảnh
Hình ảnh

Vài lời về công nghệ nano

Chúng ta thường gọi là công nghệ công nghệ nano xử lý các thao tác của vật chất trong phạm vi 1-100 nanomet. Một nanomet là một phần tỷ mét, hoặc một phần triệu milimét; trong phạm vi 1-100 nanomet, có thể chứa virus (đường kính 100 nm), DNA (10 nm chiều rộng), phân tử hemoglobin (5 nm), glucose (1 nm) và những loại khác. Nếu công nghệ nano trở thành đối tượng của chúng ta, bước tiếp theo sẽ là thao tác các nguyên tử riêng lẻ có độ lớn nhỏ hơn một bậc (~, 1 nm).

Để hiểu nơi con người gặp phải vấn đề khi cố gắng thao túng vật chất ở quy mô như vậy, chúng ta hãy chuyển sang quy mô lớn hơn. Trạm vũ trụ quốc tế cách Trái đất 481 km. Nếu con người là người khổng lồ và đâm đầu vào ISS, chúng sẽ lớn gấp 250.000 lần so với hiện tại. Nếu bạn phóng đại bất cứ thứ gì từ 1 đến 100 nanomet 250.000 lần, bạn sẽ có 2,5 cm. Công nghệ nano tương đương với con người, quay quanh ISS, cố gắng điều khiển những thứ có kích thước bằng hạt cát hoặc nhãn cầu. Để đạt được cấp độ tiếp theo - sự kiểm soát của các nguyên tử riêng lẻ - người khổng lồ sẽ phải định vị cẩn thận các vật thể có đường kính 1/40 milimet. Người bình thường sẽ cần kính hiển vi để nhìn thấy chúng.

Lần đầu tiên Richard Feynman nói về công nghệ nano vào năm 1959. Sau đó, ông nói: “Các nguyên tắc vật lý, theo như tôi có thể nói, không chống lại khả năng điều khiển mọi thứ bằng nguyên tử. Về nguyên tắc, một nhà vật lý có thể tổng hợp bất kỳ hóa chất nào mà nhà hóa học đã viết ra. Thế nào? Bằng cách đặt các nguyên tử vào nơi mà nhà hóa học nói để lấy chất. Đây là toàn bộ sự đơn giản. Nếu bạn biết cách di chuyển các phân tử hoặc nguyên tử riêng lẻ, bạn có thể làm được hầu hết mọi thứ.

Công nghệ nano trở thành một lĩnh vực khoa học nghiêm túc vào năm 1986 khi kỹ sư Eric Drexler trình bày nền tảng của nó trong cuốn sách nổi tiếng Machines of Creation của ông, nhưng bản thân Drexler tin rằng những ai muốn tìm hiểu thêm về những ý tưởng hiện đại trong công nghệ nano nên đọc cuốn sách năm 2013 của ông. “Full Abundance” (Cấp tiến Dồi dào).

Một vài từ về "grey goo"

Chúng tôi nghiên cứu sâu hơn về công nghệ nano. Trong đó, chủ đề “grey goo” là một trong những chủ đề không mấy dễ chịu trong lĩnh vực công nghệ nano, không thể không kể đến chủ đề này. Các phiên bản cũ hơn của lý thuyết công nghệ nano đã đề xuất một phương pháp lắp ráp nano liên quan đến việc tạo ra hàng nghìn tỷ rô bốt nano nhỏ bé có thể làm việc cùng nhau để tạo ra thứ gì đó. Một cách để tạo ra hàng nghìn tỷ rô bốt nano là tạo ra một rô bốt có thể tự tái tạo, tức là từ một đến hai, từ hai đến bốn, v.v. Vài nghìn tỷ robot nano sẽ xuất hiện trong một ngày. Đây là sức mạnh của sự tăng trưởng theo cấp số nhân. Thật buồn cười, phải không?

Thật buồn cười, nhưng chính xác là cho đến khi nó dẫn đến ngày tận thế. Vấn đề là sức mạnh của sự phát triển theo cấp số nhân, một cách khá thuận tiện để nhanh chóng tạo ra một nghìn tỷ nanobots, khiến việc tự nhân bản trở thành một điều đáng sợ trong thời gian dài. Điều gì sẽ xảy ra nếu hệ thống gặp sự cố và thay vì ngừng sao chép trong vài nghìn tỷ, các nanobots tiếp tục sinh sản? Điều gì sẽ xảy ra nếu toàn bộ quá trình này phụ thuộc vào carbon? Sinh khối của Trái đất chứa 10 ^ 45 nguyên tử cacbon. Một nanobot phải có thứ tự 10 ^ 6 nguyên tử carbon, vì vậy 10 ^ 39 nanobot sẽ nuốt chửng tất cả sự sống trên Trái đất chỉ trong 130 lần sao chép. Một đại dương của các nanobot ("goo xám") sẽ tràn ngập hành tinh. Các nhà khoa học cho rằng nanobots có thể tái tạo trong 100 giây, nghĩa là một sai lầm đơn giản có thể giết chết tất cả sự sống trên Trái đất chỉ trong 3,5 giờ.

Nó có thể còn tồi tệ hơn - nếu những kẻ khủng bố và các chuyên gia bất lợi tiếp cận được với công nghệ nano. Họ có thể tạo ra vài nghìn tỷ nanobot và lập trình để chúng âm thầm lan truyền khắp thế giới trong vài tuần. Sau đó, chỉ với một nút bấm, chỉ trong 90 phút là họ sẽ ăn sạch mọi thứ, không có cơ hội.

Trong khi câu chuyện kinh dị này đã được thảo luận rộng rãi trong nhiều năm, nhưng tin tốt là nó chỉ là một câu chuyện kinh dị. Eric Drexler, người đã đặt ra thuật ngữ “grey goo”, gần đây đã nói như sau: “Mọi người thích những câu chuyện kinh dị, và đây là một trong những câu chuyện kinh dị về zombie. Ý tưởng này tự nó đã ăn não rồi."

Một khi chúng ta hiểu rõ về công nghệ nano, chúng ta có thể sử dụng nó để tạo ra các thiết bị kỹ thuật, quần áo, thực phẩm, sản phẩm sinh học - tế bào máu, chiến binh chống virus và ung thư, mô cơ, v.v. - bất cứ thứ gì. Và trong một thế giới sử dụng công nghệ nano, giá thành của một loại vật liệu sẽ không còn bị ràng buộc bởi sự khan hiếm hay sự phức tạp của quá trình sản xuất, mà là sự phức tạp của cấu trúc nguyên tử của nó. Trong thế giới công nghệ nano, một viên kim cương có thể rẻ hơn một cục tẩy.

Chúng tôi thậm chí còn chưa đóng cửa ở đó. Và không hoàn toàn rõ ràng là chúng ta đánh giá thấp hay đánh giá quá cao mức độ phức tạp của con đường này. Tuy nhiên, mọi thứ đã đi đến điểm mà công nghệ nano không còn xa nữa. Kurzweil giả định rằng vào những năm 2020 chúng ta sẽ có chúng. Các quốc gia trên thế giới đều biết rằng công nghệ nano có thể hứa hẹn một tương lai tuyệt vời, và do đó họ đang đầu tư hàng tỷ USD vào chúng.

Chỉ cần tưởng tượng những khả năng mà một máy tính siêu thông minh sẽ nhận được nếu nó có được một nhà lắp ráp kích thước nano đáng tin cậy. Nhưng công nghệ nano là ý tưởng của chúng tôi, và chúng tôi đang cố gắng thực hiện nó, điều đó thật khó cho chúng tôi. Điều gì sẽ xảy ra nếu chúng chỉ là một trò đùa cho hệ thống ISI, và chính ISI đưa ra những công nghệ sẽ mạnh hơn nhiều lần so với bất cứ thứ gì mà chúng ta có thể, về nguyên tắc, giả định? Chúng tôi đồng ý: không ai có thể tưởng tượng được trí tuệ nhân tạo sẽ có khả năng như thế nào? Người ta tin rằng bộ não của chúng ta không thể dự đoán ngay cả mức tối thiểu những gì sẽ xảy ra.

AI có thể làm gì cho chúng ta?

Hình ảnh
Hình ảnh

Được trang bị trí tuệ siêu việt và tất cả công nghệ mà trí tuệ siêu việt có thể tạo ra, ISI có thể sẽ giải quyết được tất cả các vấn đề của nhân loại. Sự nóng lên toàn cầu? ISI trước tiên sẽ ngăn chặn phát thải carbon bằng cách phát minh ra một loạt các cách hiệu quả để tạo ra năng lượng không liên quan đến nhiên liệu hóa thạch. Sau đó, ông sẽ đưa ra một phương pháp hiệu quả, sáng tạo để loại bỏ CO2 dư thừa ra khỏi bầu khí quyển. Ung thư và các bệnh khác? Không thành vấn đề - chăm sóc sức khỏe và y học sẽ thay đổi theo những cách không thể tưởng tượng được. Nạn đói thế giới? ISI sẽ sử dụng công nghệ nano để tạo ra thịt giống với tự nhiên, từ đầu, thịt thật.

Công nghệ nano sẽ có thể biến một đống rác thành một thùng thịt tươi hoặc thực phẩm khác (không nhất thiết phải ở dạng thông thường - hãy tưởng tượng một khối táo khổng lồ) và phân phối tất cả thực phẩm này trên khắp thế giới bằng hệ thống giao thông tiên tiến. Tất nhiên, điều này sẽ rất tốt cho những loài động vật không còn phải chết vì thức ăn. ISI cũng có thể làm nhiều việc khác, như bảo tồn các loài có nguy cơ tuyệt chủng, hoặc thậm chí mang lại những loài đã tuyệt chủng từ DNA được lưu trữ. ISI có thể giải quyết các vấn đề kinh tế vĩ mô khó khăn nhất của chúng ta - các cuộc tranh luận kinh tế khó khăn nhất, các vấn đề đạo đức và triết học, thương mại toàn cầu - tất cả đều sẽ là điều hiển nhiên đối với ISI.

Nhưng có một điều gì đó rất đặc biệt mà ISI có thể làm cho chúng ta. Sự quyến rũ và trêu ngươi sẽ thay đổi mọi thứ: ISI có thể giúp chúng ta đối phó với tỷ lệ tử vong … Dần dần lĩnh hội được khả năng của AI, có lẽ bạn sẽ xem xét lại mọi ý tưởng của mình về cái chết.

Không có lý do gì để tiến hóa kéo dài tuổi thọ của chúng ta lâu hơn hiện tại. Nếu chúng ta sống đủ lâu để sinh ra và nuôi dạy con cái đến mức chúng có thể tự chống chọi được, thì sự tiến hóa là đủ. Theo quan điểm tiến hóa, 30+ năm là đủ để phát triển, và không có lý do gì để đột biến kéo dài tuổi thọ và làm giảm giá trị của chọn lọc tự nhiên. William Butler Yates gọi loài người chúng ta là "một linh hồn gắn liền với một con vật sắp chết." Không vui lắm.

Và vì tất cả chúng ta đều chết vào một ngày nào đó, chúng ta sống với ý nghĩ rằng cái chết là không thể tránh khỏi. Chúng ta nghĩ về sự lão hóa theo thời gian - tiếp tục tiến lên và không thể ngăn chặn quá trình này. Nhưng ý nghĩ về cái chết thật nguy hiểm: bị nó bắt, ta quên sống. Richard Feynman đã viết:

“Có một điều tuyệt vời trong sinh học: không có gì trong khoa học này có thể nói về sự cần thiết của cái chết. Nếu chúng ta muốn tạo ra một cỗ máy chuyển động vĩnh viễn, chúng ta nhận ra rằng chúng ta đã tìm thấy đủ các định luật vật lý để chỉ ra sự bất khả thi của điều này, hoặc các định luật đó là sai. Nhưng không có gì trong sinh học cho thấy sự chắc chắn của cái chết. Điều này khiến tôi tin rằng nó không phải là điều không thể tránh khỏi, và chỉ là vấn đề thời gian trước khi các nhà sinh vật học phát hiện ra nguyên nhân của vấn đề này, căn bệnh phổ biến khủng khiếp này, nó sẽ được chữa khỏi."

Thực tế là sự lão hóa không liên quan gì đến thời gian. Lão hóa là khi các chất liệu vật chất của cơ thể bị hao mòn. Các bộ phận của ô tô cũng xuống cấp - nhưng sự lão hóa là không thể tránh khỏi? Nếu bạn sửa chữa ô tô khi các bộ phận bị hao mòn, nó sẽ tồn tại mãi mãi. Cơ thể con người không khác gì - chỉ phức tạp hơn.

Kurzweil nói về các nano robot thông minh, kết nối Wi-Fi trong mạch máu có thể thực hiện vô số nhiệm vụ đối với sức khỏe con người, bao gồm việc thường xuyên sửa chữa hoặc thay thế các tế bào bị mòn ở bất kỳ vị trí nào trong cơ thể. Cải thiện quá trình này (hoặc tìm một giải pháp thay thế được đề xuất bởi một ASI thông minh hơn) sẽ không chỉ giữ cho cơ thể khỏe mạnh mà còn có thể đảo ngược quá trình lão hóa. Sự khác biệt giữa cơ thể của một người 60 tuổi và một người 30 tuổi là một số vấn đề về thể chất có thể được sửa chữa bằng công nghệ phù hợp. ISI có thể chế tạo một chiếc ô tô mà một người sẽ vào khi họ 60 tuổi và rời đi khi họ 30 tuổi.

Ngay cả một bộ não bị suy thoái cũng có thể được đổi mới. ISI chắc chắn sẽ biết cách làm điều này mà không ảnh hưởng đến dữ liệu não (tính cách, ký ức, v.v.). Một người đàn ông 90 tuổi bị suy thoái hoàn toàn não có thể được đào tạo lại, đổi mới và quay trở lại cuộc sống ban đầu. Nó có vẻ vô lý, nhưng cơ thể là một số ít các nguyên tử, và ISI chắc chắn có thể dễ dàng thao túng chúng, bất kỳ cấu trúc nguyên tử nào. Nó không phải là vô lý.

Kurzweil cũng tin rằng các vật liệu nhân tạo sẽ tích hợp ngày càng nhiều vào cơ thể khi thời gian trôi qua. Đầu tiên, các cơ quan nội tạng có thể được thay thế bằng các phiên bản máy siêu tiên tiến, có thể tồn tại mãi mãi và không bao giờ hỏng hóc. Sau đó, chúng tôi có thể thực hiện thiết kế lại hoàn toàn cơ thể, thay thế các tế bào hồng cầu bằng các nanobot hoàn hảo tự di chuyển, loại bỏ hoàn toàn nhu cầu về tim. Chúng tôi cũng có thể cải thiện khả năng nhận thức của mình, bắt đầu suy nghĩ nhanh hơn hàng tỷ lần và truy cập tất cả thông tin có sẵn cho nhân loại thông qua đám mây.

Khả năng lĩnh hội những chân trời mới sẽ thực sự vô tận. Mọi người đã cố gắng tạo ra tình dục với một mục đích mới, họ làm điều đó vì niềm vui, không chỉ để sinh sản. Kurzweil tin rằng chúng ta có thể làm điều tương tự với thực phẩm. Nanobots có thể cung cấp dinh dưỡng lý tưởng trực tiếp đến các tế bào của cơ thể, cho phép các chất không lành mạnh đi qua cơ thể. Nhà lý thuyết công nghệ nano Robert Freitas đã phát triển một phương pháp thay thế cho các tế bào máu, khi được triển khai trong cơ thể con người, có thể cho phép anh ta không thở trong 15 phút - và điều này đã được một người phát minh ra. Hãy tưởng tượng khi ISI sẽ giành được quyền lực.

Rốt cuộc, Kurzweil tin rằng con người sẽ đạt đến mức trở thành hoàn toàn nhân tạo; thời điểm mà chúng ta nhìn vào các vật liệu sinh học và nghĩ xem chúng nguyên thủy như thế nào; thời gian mà chúng ta sẽ đọc về những giai đoạn đầu của lịch sử loài người, ngạc nhiên về việc vi trùng, tai nạn, bệnh tật, hay đơn giản là tuổi già có thể giết chết một người trái với ý muốn của mình. Cuối cùng, con người sẽ đánh bại sinh học của chính mình và trở thành vĩnh cửu - đây là con đường dẫn đến mặt hạnh phúc của chùm cân bằng mà chúng ta đã nói đến ngay từ đầu. Và những người tin vào điều này cũng chắc chắn rằng một tương lai như vậy đang chờ chúng ta rất, rất sớm.

Bạn có thể sẽ không ngạc nhiên khi ý tưởng của Kurzweil đã bị chỉ trích mạnh mẽ. Điểm kỳ dị của nó vào năm 2045 và cuộc sống vĩnh hằng sau đó của con người được gọi là "sự thăng hoa của những kẻ mọt sách" hay "sự sáng tạo thông minh của những người có chỉ số IQ 140". Những người khác đặt câu hỏi về khung thời gian lạc quan, sự hiểu biết về cơ thể và bộ não của con người, nhắc nhở về định luật Moore vẫn chưa biến mất. Đối với mỗi chuyên gia tin tưởng vào ý tưởng của Kurzweil, sẽ có ba người cho rằng anh ta đã sai.

Nhưng điều thú vị nhất về điều này là hầu hết các chuyên gia không đồng ý với ông, về tổng thể, không nói rằng điều này là không thể. Thay vì nói "nhảm nhí, điều này sẽ không bao giờ xảy ra", họ nói điều gì đó như "tất cả những điều này sẽ xảy ra nếu chúng tôi đạt được ISI, nhưng đây là vấn đề." Bostrom, một trong những chuyên gia AI nổi tiếng cảnh báo về những mối nguy hiểm của AI, cũng thừa nhận:

“Hầu như không có bất kỳ vấn đề nào còn lại mà trí tuệ siêu việt không thể giải quyết, hoặc thậm chí giúp chúng tôi giải quyết. Bệnh tật, nghèo đói, tàn phá môi trường, đau khổ đủ loại - tất cả những gì siêu trí tuệ này với sự trợ giúp của công nghệ nano có thể giải quyết trong chốc lát. Trí tuệ siêu việt cũng có thể mang lại cho chúng ta tuổi thọ không giới hạn bằng cách ngăn chặn và đảo ngược quá trình lão hóa bằng cách sử dụng nanomedicine hoặc khả năng tải chúng ta lên đám mây. Sự thông minh vượt trội cũng có thể tạo cơ hội cho sự gia tăng không ngừng về năng lực trí tuệ và cảm xúc; anh ấy có thể giúp chúng tôi tạo ra một thế giới trong đó chúng tôi sẽ sống trong niềm vui và sự hiểu biết, tiếp cận lý tưởng của chúng tôi và thường xuyên biến ước mơ của chúng tôi thành hiện thực."

Tuy nhiên, đây là trích dẫn từ một trong những nhà phê bình của Kurzweil, người thừa nhận rằng tất cả những điều này là khả thi nếu chúng ta có thể tạo ra một ASI an toàn. Kurzweil chỉ đơn giản xác định trí tuệ nhân tạo nên trở thành gì, nếu có thể. Và nếu anh ta là một vị thần tốt.

Lời chỉ trích rõ ràng nhất của những người ủng hộ vùng an toàn là họ có thể bị sai lầm khi đánh giá tương lai của ISI. Trong cuốn sách The Singularity của mình, Kurzweil dành 20 trang trong số 700 mối đe dọa ISI tiềm năng. Câu hỏi không phải là khi nào chúng ta đạt được ISI, câu hỏi là đâu sẽ là động lực của nó. Kurzweil trả lời câu hỏi này một cách thận trọng: “ISI bắt nguồn từ nhiều nỗ lực khác nhau và sẽ được tích hợp sâu vào cơ sở hạ tầng của nền văn minh của chúng ta. Trên thực tế, nó sẽ được gắn chặt vào cơ thể và não bộ của chúng ta. Anh ấy sẽ phản ánh giá trị của chúng tôi bởi vì anh ấy sẽ là một với chúng tôi."

Nhưng nếu câu trả lời là, tại sao rất nhiều người thông minh trên thế giới này lại lo lắng về tương lai của trí tuệ nhân tạo? Tại sao Stephen Hawking lại nói rằng sự phát triển của ISI "có thể đồng nghĩa với sự kết thúc của loài người"? Bill Gates nói rằng ông "không hiểu những người không bận tâm" về điều đó. Elon Musk lo sợ rằng chúng ta đang "triệu hồi một con quỷ". Tại sao nhiều chuyên gia coi ISI là mối đe dọa lớn nhất đối với nhân loại?

Chúng tôi sẽ nói về điều này vào lần sau.

Đề xuất: