Trừ khi bạn đang sống dưới một tảng đá, bạn có thể nhận thức được những cảnh báo đang bị các chuyên gia AI tấn công. Người ta đã tuyên bố rằng một khi con người phát triển AI đến mức tối đa, họ sẽ tự thiết kế lại và phát triển với tốc độ cấp số nhân. Không thể phủ nhận một thực tế là chúng ta chưa biết gì về tương lai, nhưng AI mà chúng ta đã thiết kế và mã hóa cho đến nay vẫn chưa đủ trưởng thành để làm điều đó. Chúng tôi đang ở giai đoạn đầu khi chúng tôi dạy họ tự đưa ra các quyết định đơn giản.
Nguồn:techemergence.com
Chúng tôi tin rằng bằng cách làm như vậy, chúng tôi có thể giảm bớt sự tham gia của con người trong việc thực hiện một số nhiệm vụ đơn giản, chẳng hạn như đánh giá xem ai có thể vay tiền hoặc lái ô tô, đạt được mức tăng tiếp theo hoặc thực hiện một số quan sát quá nhanh đối với con người. Nhưng các nhà nghiên cứu đang loay hoay với một câu hỏi, đó là liệu máy móc có nên được dạy về đạo đức hay không?
Tại sao đây lại là một câu hỏi khó trả lời?
Đó là một nhiệm vụ khó khăn để kết luận vì các quyết định trong đời thực phức tạp hơn nhiều so với việc triển khai nguyên mẫu. Ví dụ, hãy nghĩ làm thế nào một cỗ máy sẽ biết về sự công bằng trong mọi tình huống trừ khi và cho đến khi nó biết về toàn bộ kịch bản? Con người chúng ta có siêu năng lực để đưa ra kết luận sau khi xem xét các khía cạnh khác nhau của một tình huống, nhưng máy móc sẽ không hành động tương tự!
Nguồn:datasciencecentral.com
Vì vậy, về mặt kỹ thuật, chưa thể tạo ra con người trong máy móc của chúng tôi! Lý do đằng sau điều này là chúng ta còn lâu mới khơi dậy được lương tâm và trực giác mà chúng ta thường dựa vào đó khi đưa ra quyết định. Vâng, những cỗ máy này chơi bài xì phé tốt hơn chúng ta rất nhiều, xử lý tự động hóa, thực hiện các phép tính tương tự, nhưng chúng cần có sự giám sát của con người. Hiện tại, đó là một cuộc tranh luận không có hồi kết để quyết định số phận của trí tuệ nhân tạo, chúng ta có thể tập trung vào các hướng dẫn sau thay vì chiến đấu:
Xác định rõ ràng hành vi đạo đức và con người
Chúng ta cần cung cấp câu trả lời rõ ràng cho một số câu hỏi cụ thể cho đến khi chúng ta không dạy chúng cách phản ứng đúng. Tuy nhiên, điều này sẽ cần một bảng điều khiển phù hợp vì chúng tôi vẫn không chắc chắn về đạo đức của chính mình. Ngay cả khi chúng ta gạt bỏ những khác biệt sang một bên, vẫn có rất nhiều điều mà chúng ta không thể rút ra một giải pháp hợp lý và được chấp nhận rộng rãi.
Đạo đức con người từ đám đông
Nếu chúng ta muốn tìm một giải pháp thay thế cho những xung đột có thể nảy sinh, thì máy móc cũng sẽ không thiên về một thứ. Tùy thuộc vào hoàn cảnh, quyết định của họ có thể thay đổi, điều này sẽ lại làm nảy sinh xung đột. Bây giờ nếu nó có quyền truy cập vào niềm tin mà con người đã đặt niềm tin vào. Bằng cách này, việc kết luận bất cứ điều gì từ một tình huống sẽ dễ dàng hơn.
Nguồn:blog.applovin.com
Làm cho hệ thống minh bạch hơn
Nếu chúng ta nhìn vào kịch bản hiện tại, thì các mạng thần kinh hướng dẫn hành động của những cỗ máy này hoàn toàn không thể hiểu được. Vì vậy, nếu chúng ta biết về cách các kỹ sư đã dạy họ các giá trị đạo đức, chúng ta có thể dễ dàng nhận ra ai đã mắc lỗi và không đổ lỗi cho thuật toán quá khó hiểu. Điều này sẽ rất hữu ích đối với các phương tiện tự lái thông minh vì sau đó chúng sẽ học hỏi từ những sai lầm và kinh nghiệm của mình.
Điều này được khuyến nghị vì con người sẽ dễ dàng tin tưởng hơn vào những cỗ máy có hành vi đạo đức. Hơn nữa, các nguyên tắc hướng dẫn sẽ giảm bớt gánh nặng cho các tác nhân nhân tạo chịu trách nhiệm xác định hành động của chúng. Sau đó, chúng ta không thể bỏ qua thực tế rằng nếu máy móc và con người cần cùng nhau đưa ra quyết định, thì các giá trị đạo đức được chia sẻ có thể tạo điều kiện thuận lợi cho sự đồng thuận và thỏa hiệp.
Để hiểu điều này tốt hơn, hãy lấy một ví dụ. Hình dung một phòng mổ trong đó một nhóm chuyên gia đang gặp khó khăn trong việc đưa ra quyết định. Bây giờ, hãy tưởng tượng có một cỗ máy giúp họ. Chà, về cơ bản thì chúng ta sẽ trở nên mạnh mẽ hơn khi làm như vậy! và bây giờ chúng ta không thể đợi điều này xảy ra!
Bạn nghĩ sao? Để lại nhận xét của bạn trong phần được đưa ra bên dưới và cho chúng tôi biết!