Nguồn: AdobeStock / Emmy Ljs
Mặc dù hầu hết những người mũ trắng được khảo sát đã sử dụng ChatGPT trong bảo mật Web3 và thấy rằng nó có tiềm năng, nhưng họ đã ghi nhận những lo ngại về khả năng xác định các lỗ hổng bảo mật của ChatGPT, theo một báo cáo của nền tảng dịch vụ bảo mật và tiền thưởng lỗi. miễn dịch.
mởAI đã phát hành chatbot trí tuệ nhân tạo ChatGPT vào tháng 11 năm 2022. Trong vòng hai tháng, nó đã đạt 100 triệu người dùng – nhưng khi cơ sở người dùng của nó tăng lên thì mối lo ngại về bảo mật, quyền riêng tư và đạo đức cũng tăng theo.
165 trong số những người mũ trắng tích cực nhất trong cộng đồng bảo mật Web3 đã tham gia vào cuộc khảo sát của Immunefi được thực hiện vào tháng 5 năm 2023, nền tảng này cho biết tin tức tiền điện tử. Mới được phát hành ‘Báo cáo bảo mật ChatGPT’ được xây dựng vào tháng sáu.
Báo cáo cho thấy việc áp dụng ChatGPT giữa những người da trắng là tương đối cao. 76,4% số người được hỏi đã sử dụng công nghệ này, trong khi 36,7% kết hợp nó vào quy trình làm việc hàng ngày của họ.
Đối với các trường hợp sử dụng, 74% nói rằng công nghệ mới phù hợp nhất cho mục đích giáo dục.
Đáng chú ý, báo cáo cho biết,
“Trong khi kiểm toán hợp đồng thông minh [60.6%] và phát hiện lỗ hổng [46.7%] được cộng đồng coi là các trường hợp sử dụng cụ thể, do đó, mối lo ngại thường được trích dẫn nhất là độ chính xác hạn chế trong việc xác định các lỗ hổng bảo mật [64.2%]thiếu kiến thức chuyên ngành [61.2%]và khó khăn trong việc xử lý các cuộc kiểm toán quy mô lớn [61.2%].”
Nguồn: Immunefi, Báo cáo bảo mật ChatGPT
Theo báo cáo, 76,4% người dùng mũ trắng đã báo cáo sử dụng ChatGPT cho các hoạt động bảo mật.
Đánh giá mức độ tin tưởng của họ đối với khả năng ChatGPT trong việc xác định các lỗ hổng bảo mật Web3, 35% cho biết họ tin tưởng ở mức độ vừa phải, 29% tin tưởng một chút và 26% không tin tưởng.
52% nói rằng việc sử dụng chung ChatGPT gây ra các mối lo ngại về bảo mật, bao gồm lừa đảo, lừa đảo, kỹ thuật xã hội cũng như phần mềm tống tiền và phát triển phần mềm độc hại.
Nguồn: Immunefi, Báo cáo bảo mật ChatGPT
Phần lớn, hay 75%, nói rằng ChatGPT có tiềm năng cải thiện nghiên cứu bảo mật Web3, nhưng việc tinh chỉnh và đào tạo thêm là cần thiết.
Điều đó nói rằng, hầu hết (68%) sẽ giới thiệu ChatGPT cho đồng nghiệp như một công cụ bảo mật Web3.
Báo cáo lỗi do ChatGPT tạo giống như Spam
Immunefi cho biết họ đang bảo vệ hơn 60 tỷ đô la tiền của người dùng; nó đã trả tổng số tiền thưởng hơn 75 triệu đô la và tiết kiệm được hơn 25 tỷ đô la tiền người dùng. Nó vẫn cung cấp hơn 154 triệu đô la tiền thưởng có sẵn.
Sau khi ChatGPT được phát hành, nền tảng bắt đầu nhận được “cơn lũ” báo cáo lỗi – và mặc dù được viết rất hay nhưng các tuyên bố cơ bản là “vô nghĩa”, đề cập đến các chức năng không tồn tại hoặc các khái niệm lập trình chính khó hiểu.
“Cho đến nay, không một lỗ hổng thực sự nào được phát hiện thông qua báo cáo lỗi do ChatGPT tạo được gửi qua Immunefi.”
Do đó, những báo cáo này là thư rác, Immunefi cho biết. Chúng được gửi bởi các cá nhân không có kỹ năng bảo mật “hy vọng rằng web3 săn tiền thưởng lỗi sẽ dễ dàng như nhập một số lời nhắc ChatGPT.”
Immunefi đã triển khai một quy tắc mới để cấm vĩnh viễn các tài khoản gửi báo cáo do ChatGPT tạo.
Đáng chú ý, 21% tài khoản bị Immunefi cấm là do gửi loại báo cáo lỗi này.
____
Tìm hiểu thêm:
– LayerZero và Immunefi công bố chương trình tiền thưởng cho lỗi tiền điện tử trị giá 15 triệu đô la
– Mitchell Amador về Tiền thưởng Lỗi Crypto, Bảo mật Web3 và Immunefi
– Bitget hạn chế sử dụng các công cụ AI sau kết quả đáng lo ngại và trải nghiệm người dùng tiêu cực
– Brad Smith của Microsoft kêu gọi thêm quy định về trí tuệ nhân tạo
Discussion about this post