Trong cuộc Phỏng vấn Lex Friedman, Sergey Nazarov đã nói về AI và Hợp đồng thông minh. Lex đã hỏi về việc tích hợp các hệ thống không phải con người hoặc AI do con người quản lý được tích hợp vào các hợp đồng thông minh. Anh ấy yêu cầu Sergey bình luận về thế giới của “hợp đồng thông minh lai”, về việc hệ thống hóa các thỏa thuận giữa “những sinh vật thông minh lai”.

Sergey nói rằng điều đó hoàn toàn hợp lý. Và, nói rằng về AI, anh ta không phải là một chuyên gia và do đó anh ta có thể nghe có vẻ đơn giản hoặc ngây thơ.

Anh ấy chỉ cách mọi người đã xem bộ phim về kẻ hủy diệt vào những năm 90 và nghĩ rằng điều này thực sự đáng sợ. Và, về cách cá nhân anh ấy nghĩ rằng AI thật tuyệt vời và về cách nó có ý nghĩa hoàn hảo. Anh ấy chỉ ra cách nó sẽ phát triển đến một nơi và chỉ ra cách anh ấy làm việc trong một thế giới của các vấn đề về lòng tin. Làm thế nào công nghệ có thể giải quyết các vấn đề về sự tin cậy và cộng tác, sử dụng mã hóa, sử dụng các hệ thống được bảo đảm bằng mật mã, sử dụng cơ sở hạ tầng phi tập trung. Anh ấy nói rằng đó là thế giới mà anh ấy đã sinh sống trong nhiều, nhiều năm nay đang thực hiện các hợp đồng thông minh.

Anh ấy nói rằng bộ não của anh ấy sẽ hoạt động giống như vấn đề niềm tin mà mọi người có thể gặp phải với AI. Và, “Phản ứng tự nhiên của tôi là tốt, giả sử AI tiếp tục được xây dựng và cải thiện vào một thời điểm nào đó. Tôi không có manh mối nào về việc chúng ta đang ở đâu. Bây giờ, tôi đã thấy những ý tưởng khác rất xa so với điều này. Tôi đã thấy những thứ rất gần với điều này. “

Ông chỉ ra cách AI sẽ làm những điều mà chúng ta không muốn nó làm, nhưng chúng tôi vẫn muốn cung cấp cho AI một loại quyền kiểm soát cuộc sống của chúng ta. Làm thế nào vấn đề tin cậy có thể được giải quyết với blockchain thực sự rất dễ hiểu và tôi nghĩ rằng sự đơn giản là khá mạnh mẽ. Bạn có thể có một AI sẽ kiểm soát những phần quan trọng trong cuộc sống của bạn và của chúng ta, nhưng anh ấy chỉ ra cách chúng ta có thể hạn chế điều đó bằng cách có các khóa cá nhân và blockchains, đồng thời tạo ra một số đường ray bảo vệ nhất định và loại tường chắc chắn và giới hạn đối với những gì AI Không bao giờ có thể vượt qua giả sử rằng mã hóa tiếp tục hoạt động và giả định rằng nếu không phải chuyên môn AI phá vỡ mã hóa thì nó sẽ không thể làm được điều đó.

Vì vậy, nếu bạn có một AI kiểm soát một thứ gì đó rất quan trọng hoặc bất kể nó là gì, vận chuyển hoặc thứ gì đó trong lĩnh vực quốc phòng hoặc thứ gì đó trong hệ thống tài chính hoặc bất cứ điều gì đó nhưng bạn đang ngồi đó và bạn lo lắng, điều này thật không thể tin được. Nếu bạn sử dụng các khóa riêng tư và áp dụng các giới hạn dựa trên blockchain này, bạn có thể tạo ra các điều kiện vượt quá mà AI không bao giờ có thể hoạt động.

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây