Holden Karnofsky
09/2021
Bài viết này bắt đầu bằng một bản tóm tắt về thời điểm chúng ta nên mong đợi AI biến đổi phát triển, dựa trên nhiều góc độ đề cập trước đó trong loạt bài này. Tôi nghĩ điều này rất hữu ích, ngay cả khi bạn đã đọc tất cả các phần trước đó, nhưng nếu bạn muốn bỏ qua, hãy nhấp vào đây.
Sau đây, tôi giải quyết câu hỏi: "Tại sao không có các đồng thuận mạnh mẽ của chuyên gia về chủ đề này, và điều đó có ý nghĩa gì đối với chúng ta?"
Tôi ước tính rằng có hơn 10% cơ hội chúng ta sẽ được thấy AI biến đổi trong vòng 15 năm (vào năm 2036); ~50% cơ hội chúng ta sẽ thấy nó trong vòng 40 năm (vào năm 2060); và ~2/3 cơ hội chúng ta sẽ thấy nó trong thế kỷ này (vào năm 2100).
("AI biến đổi", Ý tôi là "AI đủ mạnh để đưa chúng ta đến một tương lai mới, khác biệt về chất". Tôi đặc biệt tập trung vào thứ mà tôi gọi là PASTA: Các hệ thống AI về cơ bản có thể tự động hóa tất cả các hoạt động của con người, để tăng tốc độ tiến bộ khoa học và công nghệ cần thiết. Tôi lập luận rằng PASTA có thể đủ để biến thế kỷ này trở thành thế kỷ quan trọng nhất, thông qua tiềm năng từ việc bùng nổ năng suất cũng như rủi ro từ AI sai lệch).
Đây là kết luận tổng thể của tôi dựa trên một số báo cáo kỹ thuật tiếp cận dự báo AI từ các góc độ khác nhau, nhiều trong số đó được sản xuất bởi Từ thiện mở trong vài năm qua khi chúng tôi cố gắng phát triển bức tranh toàn cảnh về dự báo AI biến đổi để cung cấp thông tin cho việc cấp tài trợ dài hạn.
Dưới đây là bài tóm tắt một bảng về các góc độ khác nhau trong việc dự báo AI biến đổi mà tôi đã thảo luận, từ các liên kết cho đến thảo luận chi tiết hơn ở các bài viết trước đó cũng như cho đến các báo cáo kỹ thuật cơ bản:
Để cho rõ ràng, lưu ý rằng các bài báo cáo kỹ thuật đều là các phân tích của Open Philanthropy. Và tôi là đồng Giám đốc điều hành của Open Philanthropy.
Sau khi xem xét những điều trên, tôi hy vọng một số độc giả vẫn cảm thấy khó chịu. Ngay cả khi họ nghĩ rằng lập luận của tôi có ý nghĩa, họ vẫn có thể tự hỏi: Nếu điều này đúng, tại sao nó không được thảo luận và chấp nhận rộng rãi hơn?
Tóm tắt của tôi về tình trạng ý kiến chuyên gia tại thời điểm này là:
Cuối cùng, tuyên bố của tôi là về các chủ đề mà đơn giản là không có "lĩnh vực" từ chuyên gia nào dành riêng để nghiên cứu. Đó tự bản thân nó đã là một sự thật đáng lo ngại và tôi hy vọng rằng điều này cuối cùng sẽ thay đổi.
Nhưng liệu chúng ta có nên sẵn sàng hành động dựa trên giả thuyết "thế kỷ quan trọng nhất" trong thời gian chờ đợi hay không?
Dưới đây, tôi sẽ thảo luận về:
Kiểu chuyên môn nào là chuyên môn dự báo AI?
Các câu hỏi phân tích trong các báo cáo kỹ thuật đã liệt kê ở trên bao gồm:
Khi nói về những ý nghĩa rộng hơn của AI biến đổi đối với "thế kỷ quan trọng nhất”, tôi cũng đã thảo luận về những điều như "Tính khả thi của người kỹ thuật số và việc thiết lập các khu định cư trong không gian khắp thiên hà là như thế nào?" Những chủ đề này liên quan đến vật lý, khoa học thần kinh, kỹ thuật, triết học tâm trí, và nhiều hơn nữa.
Không có một công việc hay bằng cấp rõ ràng nào khiến ai đó trở thành chuyên gia về câu hỏi khi nào chúng ta có thể mong đợi AI biến đổi, hoặc câu hỏi liệu chúng ta có đang ở trong thế kỷ quan trọng nhất hay không.
(Tôi đặc biệt không đồng ý với bất kỳ khẳng định nào cho rằng chúng ta nên chỉ dựa vào các nhà nghiên cứu AI cho những dự báo này. Ngoài việc họ dường như không suy nghĩ quá nhiều về chủ đề này, thì tôi nghĩ rằng việc dựa vào những người chuyên xây dựng các mô hình AI luôn mạnh hơn để biết khi nào AI biến đổi đến cũng giống như dựa vào các công ty nghiên cứu và phát triển năng lượng mặt trời, hoặc các công ty khai thác dầu, tùy thuộc vào cách bạn nhìn nhận - để dự báo lượng khí thải carbon và biến đổi khí hậu. Họ chắc chắn có một phần của bức tranh. Nhưng dự báo là một hoạt động khác biệt so với việc đổi mới hoặc xây dựng các hệ thống tiên tiến.)
Và tôi thậm chí còn không chắc những câu hỏi này có hình dạng phù hợp cho lĩnh vực học thuật hay không. Cố gắng dự báo AI biến đổi, hoặc xác định khả năng chúng ta đang ở trong thế kỷ quan trọng nhất, dường như:
Tức là, tôi không rõ "ngôi nhà thể chế" tự nhiên cho chuyên môn về dự báo AI biến đổi, và cả "thế kỷ quan trọng nhất", sẽ trông như thế nào. Nhưng có vẻ công bằng khi nói rằng hiện nay không có các tổ chức lớn, vững chắc nào dành chuyên về loại câu hỏi này.
Chúng ta nên hành động như thế nào khi không có sự đồng thuận vững chắc của giới chuyên gia?
Quan điểm hoài nghi
Khi thiếu sự đồng thuận vững chắc của giới chuyên gia, tôi kỳ vọng một số (thực ra là hầu hết) mọi người sẽ hoài nghi bất kể lập luận nào được đưa ra.
Đây là một phiên bản của phản ứng hoài nghi rất chung chung mà tôi khá đồng cảm:
Tôi có thể hiểu bạn cảm thấy như thế nào, và đôi khi chính tôi cũng đã cảm thấy như vậy, đặc biệt là ở các điểm #1 đến #4. Nhưng tôi sẽ đưa ra ba lý do mà điểm #5 dường như không đúng.
Lý do 1: Chúng ta không có thời gian để chờ đợi sự đồng thuận vững chắc của giới chuyên gia
Tôi lo lắng rằng sự xuất hiện của AI biến đổi có thể diễn ra như một phiên bản chậm hơn và có rủi ro cao hơn của đại dịch COVID-19. Lý do để mong đợi điều gì đó lớn lao sẽ xảy ra là có, nếu bạn nhìn vào những thông tin và phân tích tốt nhất hiện có ngày nay. Nhưng tình hình nhìn chung là xa lạ; nó không phù hợp với những khuôn mẫu mà các thể chế của chúng ta thường xử lý. Và mỗi năm hành động thêm đều có giá trị.
Bạn cũng có thể xem nó như một phiên bản tăng tốc của động lực với biến đổi khí hậu. Hãy tưởng tượng nếu lượng khí thải nhà kính chỉ mới bắt đầu tăng gần đây 5 (thay vì vào giữa những năm 1800), và nếu không có một lĩnh vực khoa học khí hậu nào được thiết lập. Sẽ là ý tưởng thực sự tồi tệ nếu chờ đợi cả hàng thập kỷ để thấy một lĩnh vực xuất hiện, trước khi tìm cách giảm khí thải.
Lý do 2: Luật Cunningham ("cách tốt nhất để nhận được câu trả lời đúng là đăng một câu trả lời sai") có thể là hy vọng tốt nhất của chúng ta khi tìm ra sai sót trong những lập luận này
Mặc dù vậy, tôi nói nghiêm túc đấy.
Vài năm trước, một số đồng nghiệp và tôi đã nghi ngờ rằng giả thuyết "thế kỷ quan trọng nhất" là đúng. Nhưng trước khi hành động quá nhiều dựa trên nó, chúng tôi muốn xem liệu mình có thể tìm ra những sai sót chí mạng trong đó hay không.
Một cách để diễn giải hành động của chúng tôi trong vài năm qua là như thể chúng tôi đang làm mọi thứ có thể để biết rằng giả thuyết đó là sai.
Đầu tiên, chúng tôi đã cố gắng nói chuyện với mọi người về những lập luận chính, như các nhà nghiên cứu AI, nhà kinh tế học, v.v. Nhưng:
Vì vậy, chúng tôi đã bỏ rất nhiều công sức vào việc tạo ra các báo cáo kỹ thuật về các lập luận chính. (Những báo cáo này hiện đã được công khai và đưa vào bảng ở đầu bài viết này.) Điều này giúp chúng tôi có thể công bố các lập luận, và có khả năng gặp phải những phản biện chí mạng.
Sau đó, chúng tôi đã ủy thác các đánh giá chuyên gia từ bên ngoài. 7
Chỉ nói riêng quan điểm của tôi, giả thuyết "thế kỷ quan trọng nhất" dường như đã sống sót sau tất cả những điều này. Thật vậy, sau khi đã xem xét nhiều góc độ và đi sâu hơn vào các chi tiết, tôi tin tưởng nó sẽ mạnh mẽ hơn trước đây.
Nhưng giả sử rằng điều này chỉ là vì các chuyên gia thực sự, là những người mà chúng tôi chưa tìm thấy, với những phản biện tàn khốc, thấy toàn bộ điều này quá ngớ ngẩn đến nỗi họ không buồn tham gia. Hoặc, giả sử rằng ngày nay có những người ngoài kia vào một ngày nào đó sẽ trở thành chuyên gia về các chủ đề này, rồi đánh sập những lập luận này. Chúng ta có thể làm gì để biến điều này thành hiện thực?
Câu trả lời tốt nhất tôi nghĩ ra được là: "Nếu giả thuyết này trở nên nổi tiếng hơn, được chấp nhận rộng rãi hơn và có ảnh hưởng hơn, thì nó sẽ nhận nhiều sự xem xét chỉ trích hơn”.
Chuỗi bài viết này là một bước đi nỗ lực theo hướng đó - để tiến tới một giả thuyết "thế kỷ quan trọng nhất" có độ tin cậy rộng lớn hơn. Đây sẽ là điều tốt nếu giả thuyết này đúng; nó cũng có vẻ là bước tiếp theo tốt nhất nếu mục tiêu duy nhất của tôi là thách thức niềm tin của mình và biết rằng nó sai.
Tất nhiên, tôi không nói rằng hãy chấp nhận hoặc quảng bá giả thuyết "thế kỷ quan trọng nhất" nếu nó có vẻ không đúng với bạn. Nhưng tôi nghĩ rằng nếu sự dè dặt duy nhất của bạn là vì thiếu sự đồng thuận vững chắc, thì việc tiếp tục phớt lờ tình hình có vẻ kỳ lạ. Nếu mọi người hành xử theo cách này nói chung (phớt lờ bất kỳ giả thuyết nào không có những đồng thuận vững chắc hỗ trợ), thì tôi không chắc là tôi sẽ thấy mọi giả thuyết, kể cả những giả thuyết đúng, sẽ đi từ bên lề đến lúc được chấp nhận như thế nào.
Lý do 3: Hoài nghi quá mức như thế này dường như là một ý tưởng tồi
Khi tôi còn tập trung vào Give Well, mọi người thỉnh thoảng sẽ nói một điều gì đó đại loại như: "Bạn biết đấy, bạn không thể giữ mọi lập luận theo tiêu chuẩn mà GiveWell giữ các tổ chức từ thiện hàng đầu của ông, như tìm kiếm các thử nghiệm ngẫu nhiên có đối chứng, dữ liệu thực nghiệm vững chắc, v.v. Một số cơ hội tốt nhất để làm điều tốt là những cơ hội ít rõ ràng hơn, vì vậy tiêu chuẩn này có nguy cơ loại trừ một số cơ hội tiềm năng lớn nhất của bạn để tạo ra tác động”.
Tôi nghĩ điều này là đúng. Tôi nghĩ điều quan trọng là phải kiểm tra cách tiếp cận chung của mình đối với lý luận, các tiêu chuẩn của bằng chứng và hỏi: “Những kịch bản nào tôi có cách tiếp cận thất bại và trong đó tôi thực sự muốn nó thành công không?" Theo tôi, việc chấp nhận một số rủi ro về sự tự lừa dối và tính khép kín là điều chấp nhận được, để đổi lấy việc làm điều đúng đắn vào thời điểm quan trọng nhất.
Tôi nghĩ rằng việc thiếu sự đồng thuận vững chắc của giới chuyên gia và những lo ngại về tự lừa dối và tính khép kín sẽ cung cấp lý do tốt để đào sâu vào giả thuyết "thế kỷ quan trọng nhất", thay vì chấp nhận nó ngay lập tức. Để hỏi xem có thể có sai sót chưa được khám phá ở đâu, để tìm kiếm một số thành kiến hướng đến việc thổi phồng tầm quan trọng của chính chúng ta, để nghiên cứu những phần đáng ngờ nhất của lập luận, v.v.
Nhưng nếu bạn đã điều tra vấn đề nhiều nhất có thể/một cách thực tế đối với bạn - và chưa tìm thấy một sai sót nào khác ngoài những cân nhắc như "Không có các đồng thuận vững chắc của giới chuyên gia" và "Tôi lo lắng về sự tự lừa dối và tính khép kín" - thì tôi nghĩ việc gạt bỏ giả thuyết này là thứ điều mà về cơ bản đảm bảo bạn sẽ không nằm trong số những người đầu tiên nhận thấy và hành động dựa trên một vấn đề cực kỳ quan trọng, nếu cơ hội đó xuất hiện. Tôi nghĩ đó là một sự hy sinh quá lớn, xét về việc từ bỏ các cơ hội tiềm năng để làm nhiều điều tốt đẹp.
*Chú thích:
Tác phẩm này được cấp phép theo Giấy phép Quốc tế Creative Commons Ghi công 4.0.