Cãi tay đôi, đe doạ người dùng – chatbot AI của Bing giờ đây bị giới hạn chỉ cho hỏi 5 câu

Cuối tuần vừa qua, sự xuất hiện của chatbot giống với ChatGPT trên Bing khiến cộng đồng mạng “đứng ngồi không yên”. Tuy nhiên, chỉ mới xuất hiện vài ngày Bing Chat đã gặp các vấn đề như Cãi tay đôi với người dùng, mắng ngược lại người dùng khiến phía Microsoft phải đứng ra can thiệp.

Du an moi 98

Bing Chat hoạt động hệt như mô hình chatbot ChatGPT của OpenAI nhưng có phần thông minh hơn nhờ vào cơ sở dữ liệu rộng lớn của Bing, ngôn ngữ trả lời của Bing Chat cũng được đánh giá là tự nhiên hơn.

Tuy nhiên nhiều vấn đề đã xảy ra, chatbot của Microsoft dường như đang “đi quá giới bạn” khi có thể cãi tay đôi với người dùng, đôi khi Bing Chat bị “bối rối” và thậm chí quay qua chỉ trích ngược người dùng, hoặc thậm chí đòi người dùng ly hôn bạn đời để sống cùng chatbot…

Du an moi 99

Microsoft đã nhanh chóng can thiệp khi giờ đây người dùng chỉ được hỏi 1 vấn đề với Bing Chat trong 5 câu hỏi hoặc câu lệnh, điều này nhằm tạm thời tránh cho AI bị “tẩu hoả nhập ma”. Tuy nhiên điều này cũng dấy nên nghi hoặc về việc AI có thể bị can thiệp để truyền tải các thông tin sai lệch trong tương lai.

Tham khảo Cnet

Đánh giá bài viết

Bình luận

Email của bạn sẽ không được hiển thị công khai.