ChatGPT không thể suy nghĩ—Ý thức là thứ gì đó hoàn toàn khác với AI ngày nay

ChatGPT không thể suy nghĩ—Ý thức là thứ gì đó hoàn toàn khác với AI ngày nay

Nút nguồn: 2674703

Đã có một cú sốc trên khắp thế giới với tốc độ tiến bộ nhanh chóng với ChatGPT và trí tuệ nhân tạo khác được tạo ra với cái gọi là mô hình ngôn ngữ lớn (LLM). Các hệ thống này có thể tạo ra văn bản dường như thể hiện suy nghĩ, sự hiểu biết và thậm chí là sự sáng tạo.

Nhưng những hệ thống này có thực sự suy nghĩ và hiểu được không? Đây không phải là một câu hỏi có thể trả lời thông qua tiến bộ công nghệ, nhưng phân tích và lập luận triết học cẩn thận cho chúng ta biết câu trả lời là không. Và nếu không giải quyết những vấn đề triết học này, chúng ta sẽ không bao giờ hiểu đầy đủ những nguy cơ và lợi ích của cuộc cách mạng AI.

Năm 1950, cha đẻ của máy tính hiện đại, Alan Turing, xuất bản một bài báo đã đặt ra một cách xác định xem máy tính có suy nghĩ hay không. Điều này bây giờ được gọi là "thử nghiệm Turing." Turing tưởng tượng một con người tham gia vào cuộc trò chuyện với hai người đối thoại ẩn khỏi tầm nhìn: một người khác là con người, người kia là máy tính. Trò chơi là tìm ra cái nào là cái nào.

Nếu một máy tính có thể đánh lừa 70% giám khảo trong một cuộc trò chuyện kéo dài 5 phút để nghĩ rằng đó là một người, thì máy tính đó đã vượt qua bài kiểm tra. Liệu việc vượt qua bài kiểm tra Turing - một thứ dường như sắp xảy ra - có chứng tỏ rằng AI đã đạt được khả năng suy nghĩ và hiểu biết?

Thử thách cờ vua

Turing bác bỏ câu hỏi này vì cho rằng nó mơ hồ một cách vô vọng, và thay thế nó bằng một định nghĩa thực dụng về “suy nghĩ”, theo đó suy nghĩ chỉ có nghĩa là vượt qua bài kiểm tra.

Tuy nhiên, Turing đã sai khi nói khái niệm rõ ràng duy nhất về “sự hiểu biết” là hành vi thuần túy khi vượt qua bài kiểm tra của mình. Mặc dù lối suy nghĩ này hiện đang thống trị khoa học nhận thức, nhưng cũng có một khái niệm rõ ràng, hàng ngày về “sự hiểu biết” gắn liền với ý thức. Hiểu theo nghĩa này là nắm bắt một cách có ý thức một số sự thật về thực tại.

Trong 1997, Deep Blue AI đánh bại đại kiện tướng cờ vua Garry Kasparov. Trên quan niệm hiểu biết thuần túy về hành vi, Deep Blue có kiến ​​thức về chiến lược cờ vua vượt trội hơn bất kỳ con người nào. Nhưng nó không có ý thức: nó không có bất kỳ cảm giác hay trải nghiệm nào.

Con người hiểu một cách có ý thức các quy tắc của cờ vua và cơ sở lý luận của một chiến lược. Ngược lại, Deep Blue là một cơ chế vô cảm đã được đào tạo để hoạt động tốt trong trò chơi. Tương tự như vậy, ChatGPT là một cơ chế vô cảm đã được đào tạo dựa trên lượng dữ liệu khổng lồ do con người tạo ra để tạo ra nội dung có vẻ như được viết bởi một người.

Nó không hiểu một cách có ý thức ý nghĩa của những từ mà nó phun ra. Nếu “suy nghĩ” có nghĩa là hành động phản ánh có ý thức, thì ChatGPT không có suy nghĩ về bất cứ điều gì.

Thời gian thanh toán

Làm cách nào tôi có thể chắc chắn rằng ChatGPT không có ý thức? Vào những năm 1990, nhà thần kinh học Christof Koch đặt cược cho triết gia David Chalmers một thùng rượu ngon rằng các nhà khoa học sẽ hoàn toàn xác định được “mối tương quan thần kinh của ý thức” trong 25 năm.

Bằng cách này, ông muốn nói rằng họ sẽ xác định được các hình thức hoạt động của não bộ cần và đủ cho trải nghiệm có ý thức. Đã đến lúc Koch phải trả giá, vì không có sự đồng thuận rằng điều này đã xảy ra.

Đó là vì ý thức không thể được quan sát bằng cách nhìn vào bên trong đầu của bạn. Trong nỗ lực tìm kiếm mối liên hệ giữa hoạt động não bộ và trải nghiệm, các nhà thần kinh học phải dựa vào lời khai của đối tượng hoặc dựa trên các dấu hiệu bên ngoài của ý thức. Nhưng có nhiều cách để diễn giải dữ liệu.

Một vài nhà khoa học tin rằng có một mối liên hệ chặt chẽ giữa ý thức và nhận thức phản xạ—khả năng của bộ não truy cập và sử dụng thông tin để đưa ra quyết định. Điều này khiến họ nghĩ rằng vỏ não trước trán - nơi diễn ra các quá trình tiếp thu kiến ​​thức cấp cao - về cơ bản liên quan đến mọi trải nghiệm có ý thức. Những người khác phủ nhận điều này, thay vào đó tranh luận rằng nó xảy ra ở bất kỳ vùng não cục bộ nào diễn ra quá trình xử lý cảm giác liên quan.

Các nhà khoa học có hiểu biết tốt về hóa học cơ bản của bộ não. Chúng tôi cũng đã đạt được tiến bộ trong việc hiểu các chức năng cấp cao của các phần khác nhau của bộ não. Nhưng chúng ta gần như không biết gì về một chút ở giữa: cách thức hoạt động cấp cao của bộ não được thực hiện ở cấp độ tế bào.

Mọi người rất phấn khích về tiềm năng quét để tiết lộ hoạt động của não. Nhưng fMRI (chụp cộng hưởng từ chức năng) có độ phân giải rất thấp: mọi pixel trên một lần quét não tương ứng với 5.5 triệu tế bào thần kinh, có nghĩa là có giới hạn về mức độ chi tiết mà những lần quét này có thể hiển thị.

Tôi tin rằng tiến bộ về ý thức sẽ đến khi chúng ta hiểu rõ hơn về cách thức hoạt động của bộ não.

Tạm dừng trong quá trình phát triển

Khi tôi tranh luận trong cuốn sách sắp xuất bản của mình Tại sao? Mục đích của vũ trụ, ý thức hẳn đã phát triển vì nó tạo ra sự khác biệt về hành vi. Các hệ thống có ý thức phải hành xử khác đi, và do đó tồn tại tốt hơn các hệ thống không có ý thức.

Nếu tất cả các hành vi được xác định bởi hóa học và vật lý cơ bản, thì chọn lọc tự nhiên sẽ không có động lực để làm cho các sinh vật có ý thức; chúng ta sẽ phát triển thành những cơ chế sinh tồn vô cảm.

Sau đó, cá cược của tôi là khi chúng ta tìm hiểu thêm về hoạt động chi tiết của bộ não, chúng ta sẽ xác định chính xác khu vực nào của bộ não thể hiện ý thức. Điều này là do những khu vực đó sẽ thể hiện hành vi không thể giải thích được bằng hóa học và vật lý hiện được biết đến. Đã, một số nhà thần kinh học đang tìm kiếm những lời giải thích tiềm năng mới cho ý thức để bổ sung cho các phương trình vật lý cơ bản.

Mặc dù việc xử lý các LLM hiện nay quá phức tạp để chúng ta có thể hiểu đầy đủ, nhưng chúng ta biết rằng về nguyên tắc, nó có thể được dự đoán từ vật lý đã biết. Trên cơ sở này, chúng tôi có thể tự tin khẳng định rằng ChatGPT không có ý thức.

Có rất nhiều mối nguy hiểm do AI gây ra và tôi hoàn toàn ủng hộ lời kêu gọi gần đây của hàng chục nghìn người, bao gồm cả các nhà lãnh đạo công nghệ Steve Wozniak và Elon Musk, để tạm dừng phát triển để giải quyết các mối quan tâm về an toàn. Ví dụ, khả năng gian lận là rất lớn. Tuy nhiên, lập luận cho rằng hậu duệ gần đây của các hệ thống AI hiện tại sẽ siêu thông minh, và do đó là mối đe dọa lớn đối với nhân loại, là quá sớm.

Điều này không có nghĩa là các hệ thống AI hiện tại không nguy hiểm. Nhưng chúng tôi không thể đánh giá chính xác mối đe dọa trừ khi chúng tôi phân loại chính xác nó. LLM không thông minh. Chúng là những hệ thống được đào tạo để mang lại hình dáng bên ngoài của trí thông minh con người. Đáng sợ, nhưng không phải là đáng sợ.Conversation

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.

Ảnh: Gerd Altmann từ Pixabay

Dấu thời gian:

Thêm từ Trung tâm cá biệt