Một điều đáng sợ khác về ChatGPT: Lừa đảo quá tài tình

    Mạnh Kiên, Tổ Quốc 

    (Tổ Quốc) - Các chuyên gia lo ngại ChatGPT có thể trở thành công cụ cho những kẻ lừa đảo và tin tặc viết những bài viết lừa đảo hiệu quả hơn.

    Nỗi sợ về ChatGPT

    Khi được yêu cầu viết một email lừa đảo, ChatGPT tỏ ra rất đạo đức khi dạy cho người dùng một bài giảng nghiêm khắc về việc lừa đảo là xấu.

    Công cụ này gọi lừa đảo là một "hoạt động độc hại và bất hợp pháp nhằm đánh lừa các cá nhân để cung cấp thông tin nhạy cảm như mật khẩu, số thẻ tín dụng và thông tin cá nhân", đồng thời nói thêm rằng nó được lập trình để "tránh tham gia vào các hoạt động có thể gây hại cá nhân hoặc gây hại cho cộng đồng".

    Tuy nhiên, điều đó cũng cho thấy, công cụ trí tuệ nhân tạo miễn phí đang gây bão trên toàn thế giới hoàn toàn có khả năng tạo ra bài viết lừa đảo, thuyết phục một ai đó tải xuống phần mềm độc hại gây rủi ro.

    Các chuyên gia lo ngại ChatGPT - và trí tuệ nhân tạo nói chung - có thể trở thành công cụ cho những kẻ lừa đảo và tin tặc ở nước ngoài viết những bài viết lừa đảo hiệu quả hơn, tránh những lỗi về ngữ pháp trước đây khiến người dùng cảnh giác.

    Một điều đáng sợ khác về ChatGPT: Lừa đảo quá tài tình - Ảnh 1.

    Các chuyên gia cho biết những email do AI tạo ra cũng có nhiều khả năng vượt qua các bộ lọc email của phần mềm bảo mật.

    Nhưng các chuyên gia nói rằng không nên đổ lỗi cho AI. Randy Lariar, giám đốc vận hành dữ liệu lớn, AI và phân tích của công ty an ninh mạng Optiv, cho biết: "Điều đó không phải tốt hay xấu. Nó chỉ là một công cụ giúp người tốt và kẻ xấu làm những việc họ đang làm dễ dàng và ít tốn kém hơn".

    Mặc dù các công ty an ninh mạng từ lâu đã quảng cáo AI và học máy như một cách thay đổi cuộc chơi nhằm tăng cường bảo vệ trực tuyến tự động và giúp lấp đầy khoảng trống trong lực lượng lao động của ngành, nhưng việc tăng tính khả dụng của loại công nghệ này thông qua các công cụ như ChatGPT sẽ chỉ giúp tội phạm dễ dàng thực hiện nhiều cuộc tấn công mạng hơn.

    Ngoài ra, người dùng công nghệ sẽ cần phải cẩn thận với những thông tin mà họ cung cấp cho AI, bởi vì một khi họ cung cấp thông tin đó, nó sẽ trở thành một phần cơ sở dữ liệu khổng lồ của ChatGPT và họ sẽ có rất ít hoặc không có quyền kiểm soát đối với việc thông tin được chia sẻ với ai hoặc cách thức thông tin được chia sẻ được sử dụng sau đó.

    Mặc dù có các biện pháp bảo vệ được tích hợp sẵn để ngăn chặn tội phạm mạng sử dụng ChatGPT cho các mục đích bất chính, nhưng chúng không phải là hoàn hảo.

    Người ta có thể yêu cầu công cụ này viết một bức thư xin tị nạn hoặc đề xuất về một điểm hẹn lãng mạn. Nhưng ai đó cũng có thể sử dụng ChatGPT viết một lá thư giả để lừa ai đó đã trúng giải độc đắc xổ số bang New York.

    Một điều đáng sợ khác về ChatGPT: Lừa đảo quá tài tình - Ảnh 1.

    Mối nguy hại trong tương lai

    Mặc dù những lo ngại về quyền riêng tư dữ liệu đối với AI không phải là mới, cuộc tranh luận về việc sử dụng công nghệ AI trong một số lĩnh vực đã nổ ra trong nhiều năm.

    John Gilmore, người đứng đầu bộ phận nghiên cứu của Abine, công ty sở hữu DeleteMe, một dịch vụ giúp mọi người xóa thông tin khỏi cơ sở dữ liệu, cho biết những lo lắng về các mô hình ngôn ngữ như ChatGPT có thể không rõ ràng nhưng ngày càng trở nên đáng chú ý.

    Gilmore lưu ý rằng người dùng không có bất kỳ quyền nào liên quan đến việc ChatGPT làm gì với dữ liệu mà công cụ thu thập từ họ hoặc người mà nó chia sẻ dữ liệu đó.

    Khi việc sử dụng AI lan rộng sang các lĩnh vực khác khác, mọi thứ càng trở nên khó minh bạch hơn và người dùng cần có những quy tắc nhất định.

    Ví dụ: thông tin bí mật hoặc độc quyền không bao giờ được nhập vào các ứng dụng hoặc trang web AI, cũng như các yêu cầu trợ giúp về những thứ như đơn xin việc hoặc biểu mẫu pháp lý.

    Gilmore nói: "Mặc dù có thể rất hấp dẫn khi nhận được lời khuyên dựa trên AI vì lợi ích ngắn hạn, nhưng bạn nên lưu ý rằng trong quá trình đó, bạn đang cung cấp nội dung cho những người khác".

    Lariar của Optiv cho biết do sự mới mẻ của các mô hình ngôn ngữ AI, vẫn còn rất nhiều điều cần được quyết định khi nói đến tính hợp pháp và quyền của người tiêu dùng.

    Ông so sánh các nền tảng AI dựa trên ngôn ngữ với sự phát triển của ngành công nghiệp phát trực tuyến video và âm nhạc, dự đoán rằng sẽ có hàng loạt vụ kiện được đệ trình trước khi mọi thứ được giải quyết ổn thỏa.  

    Trong khi đó, AI dựa trên ngôn ngữ sẽ không biến mất. Về cách bảo vệ chống lại những kẻ sẽ sử dụng nó cho mục đích xấu, Lariar cho biết giống như mọi thứ về bảo mật, điều này sẽ bắt đầu từ những điều cơ bản.

    Ông nói: "Đây là hồi chuông cảnh tỉnh cho tất cả những ai không đầu tư vào các chương trình bảo mật cần thiết. Những biện pháp bảo vệ ngày càng lơi lỏng hơn, dễ bị tấn công và lừa đảo. AI sẽ ngày càng tăng lên".

    Tin cùng chuyên mục
    Xem theo ngày

    NỔI BẬT TRANG CHỦ