Người ta phát hiện ra rằng hầu hết các nhà nghiên cứu không báo cáo mã nguồn được sử dụng để dạy AI của họ, điều này đang gây phiền hà cho các nhà khoa học khác vì họ không thể sao chép kết quả và tiếp tục nghiên cứu.
Nói một cách đơn giản, lĩnh vực Trí tuệ nhân tạo đang phát triển đang phải vật lộn với cuộc khủng hoảng sao chép. Điều này nghe có vẻ bình thường với một số người, nhưng với những người đam mê AI, đây là một thảm họa không hơn không kém. Nhưng tại sao chúng ta cần sao chép hoặc quay lại các nghiên cứu đã thực hiện? Đọc thêm để biết thêm!
Sao chép là gì?
Một quy trình trong đó nhà nghiên cứu có thể quay ngược lại mô hình/phần mềm/thuật toán hoặc bất kỳ tài liệu nghiên cứu nào được gọi là sao chép. Lĩnh vực AI đang trở thành một ngoại lệ vì làm như vậy đang trở thành một nhiệm vụ khó khăn đối với các chuyên gia. Nếu không quay lại, chúng ta có thể gặp khó khăn!
Tại sao quay lui lại quan trọng như vậy?
Không giống như niềm tin phổ biến, sao chép có những lợi thế riêng của nó. Bạn có thể dễ dàng nhận được kết quả để xác minh chúng hoặc đề xuất các thay đổi đối với mô hình. Điều này đã mang lại hiệu quả kỳ diệu cho những người đang nghiên cứu trong lĩnh vực tự động hóa vì họ có thể dễ dàng sửa đổi các máy móc được sử dụng và nâng cấp chúng mãi mãi.
Vì vậy, nếu bạn hỏi chúng tôi liệu có thể sao chép các nghiên cứu về AI hay không, chúng tôi sẽ nói:“Không bạn không thể.”
Các nhà nghiên cứu thường không chia sẻ mã nguồn. Theo Nicolas Rougier, (một nhà thần kinh học máy tính tại Viện Nghiên cứu Khoa học Máy tính và Tự động hóa Quốc gia Pháp), những người bên ngoài lĩnh vực này có thể cho rằng có một số quy tắc nghiêm ngặt có thể mang lại kết quả mong muốn, nhưng những người đang nghiên cứu vấn đề này biết rõ. cuộc đấu tranh thực sự. Tuy nhiên, chúng tôi không thể đổ lỗi cho bất kỳ ai vì đã không chia sẻ mã nguồn vì những mã nguồn đó có thể thuộc bản quyền của một công ty hoặc đôi khi, nhà nghiên cứu muốn trở thành người đầu tiên trình bày bất kỳ sự phát triển nào trong lĩnh vực này. Nhưng mọi thứ trở nên khá phức tạp khi phần mềm hoặc máy được cung cấp bởi thuật toán học máy. Bởi vì những cỗ máy này học hỏi thông qua kinh nghiệm và các mô phỏng khác, bạn sẽ không bao giờ nhận được bất cứ thứ gì giống như những cỗ máy khác. Vì vậy, ngay cả trong trường hợp hiếm hoi nhất, bạn nhận được mã nguồn, bạn sẽ không bao giờ có thể nhận được kết quả mong muốn trừ khi bạn đã huấn luyện máy của mình tương tự.
Đây ít nhiều là một tình huống giả định vì bạn sẽ không bao giờ có được phương pháp đã được sử dụng để đào tạo máy trước đó! Hãy tin tưởng chúng tôi khi chúng tôi nói điều này, nhưng không ai có thời gian để kiểm tra thuật toán trong mọi điều kiện có thể hoặc không gian mẫu được xác định trong tài liệu. Đây là một trong những lý do tại sao các dự án AI mất nhiều thời gian hơn để thiết kế và phát triển so với các máy móc hoặc dự án thông thường.
Không thể phủ nhận một thực tế là chúng ta cần phải thay đổi nền văn hóa này bởi nếu không nó sẽ phát triển theo cấp số nhân sẽ mãi là một giấc mơ xa vời!
Cách này có tối ưu không?
Các chuyên gia nói rằng nó cần được giữ bí mật hoặc chỉ chia sẻ với một số người được chọn để sự an toàn và sự tồn tại của chúng ta không bị đe dọa! Nhưng làm sao chúng ta biết được rằng những người được chia sẻ mã nguồn sẽ không lạm dụng nó? Nếu bạn đang nghĩ rằng mình có thể thiết kế một thuật toán máy học cho mục đích tương tự, thì bạn cũng nên biết rằng nó vẫn chưa đạt đến mức đó. Do đó, bạn không thể dựa vào một thuật toán để phát hiện hành vi của con người.
Nên Làm Gì Bây Giờ?
Chúng ta có thể nghĩ rằng việc cởi mở về những khái niệm này sẽ giảm bớt sự huyên náo, nhưng trái ngược với niềm tin này, đây sẽ là một thảm họa không hơn không kém. Những kẻ khủng bố và những đầu óc không lành mạnh sẽ đảo ngược kỹ thuật và sử dụng nó để hủy diệt hàng loạt. Chúng tôi chỉ có thể khuyến nghị rằng nên thành lập một hội đồng để thử nghiệm các thuật toán giống như ngành y tế đang hoạt động. Họ không tiết lộ thành phần của thuốc trừ khi nó đã được thử nghiệm và phê duyệt. Nếu điều tương tự cũng được thực hiện với những cỗ máy thông minh nhân tạo thì mọi thứ sẽ không khủng khiếp như dự đoán.
Chúng ta cũng có thể chủ động và thay vì trốn đằng sau các luật đúng đắn, làm việc cùng nhau sẽ có kết quả. Tóm lại, chúng ta không nên quên rằng máy móc không thiên vị và nếu “ngày phán xét” đang được chờ đợi, thì tất cả chúng ta đều gặp rủi ro. Làm việc cùng nhau và học tập có giám sát là sự trợ giúp duy nhất còn lại đối với chúng tôi.
Kết luận
Chúng tôi không thể sao chép các nghiên cứu, nhưng máy móc có thể làm như vậy. Vào cuối năm 2017, chúng tôi đã chứng kiến rằng một AI đã giúp tạo ra một AI khác thuộc loại này. Cỗ máy hỗ trợ AI này là một dự án được gọi là AutoML mà Google đang thực hiện và do đó, nó đánh dấu bước tiến lớn tiếp theo của ngành công nghiệp AI. Quá trình phát triển đạt được rất đáng để ăn mừng, nhưng trong khi làm như vậy, chúng tôi đang bỏ qua một thực tế quan trọng, đó là do quá trình phát triển được tự động hóa nên phần mềm ngày càng trở nên phức tạp hơn đối với con người.
Nếu điều tương tự vẫn tiếp diễn, thì chúng ta sẽ không còn xa ngày máy móc sẽ tự tạo ra mà không cần con người đầu vào. Nó có nguy hiểm không? Chúng tôi nghĩ vậy! Điều gì sẽ xảy ra nếu chúng ta đang bận quay lui và máy móc bắt đầu tạo bản sao của chúng! Hãy để mắt đến các bạn!
Trong trường hợp bạn nghĩ khác hoặc có một số quan điểm về chủ đề này đáng để chia sẻ, hãy đưa chúng vào phần nhận xét bên dưới!