Cuối tuần vừa qua, sự xuất hiện của chatbot giống với ChatGPT trên Bing khiến cộng đồng mạng “đứng ngồi không yên”. Tuy nhiên, chỉ mới xuất hiện vài ngày Bing Chat đã gặp các vấn đề như Cãi tay đôi với người dùng, mắng ngược lại người dùng khiến phía Microsoft phải đứng ra can thiệp.
Bing Chat hoạt động hệt như mô hình chatbot ChatGPT của OpenAI nhưng có phần thông minh hơn nhờ vào cơ sở dữ liệu rộng lớn của Bing, ngôn ngữ trả lời của Bing Chat cũng được đánh giá là tự nhiên hơn.
Tuy nhiên nhiều vấn đề đã xảy ra, chatbot của Microsoft dường như đang “đi quá giới bạn” khi có thể cãi tay đôi với người dùng, đôi khi Bing Chat bị “bối rối” và thậm chí quay qua chỉ trích ngược người dùng, hoặc thậm chí đòi người dùng ly hôn bạn đời để sống cùng chatbot…
Microsoft đã nhanh chóng can thiệp khi giờ đây người dùng chỉ được hỏi 1 vấn đề với Bing Chat trong 5 câu hỏi hoặc câu lệnh, điều này nhằm tạm thời tránh cho AI bị “tẩu hoả nhập ma”. Tuy nhiên điều này cũng dấy nên nghi hoặc về việc AI có thể bị can thiệp để truyền tải các thông tin sai lệch trong tương lai.
Đừng quên theo dõi kênh Dchannel để được cập nhật thông tin công nghệ mới mỗi ngày. Khi cần mua sản phẩm công nghệ bạn hãy đến với Di Động Việt. Di Động Việt luôn tôn trọng và bảo vệ quyền lợi chính đáng của khách hàng. Tại Di Động Việt, sản phẩm chính hãng còn có những quyền lợi cộng thêm cho khách hàng “CÒN HƠN CẢ CHÍNH HÃNG”. Ngoài ra, “chính hãng” của Di Động Việt là CHÍNH HÃNG CHÍNH THỐNG, được cung cấp bởi chính hãng thông qua hợp đồng chính thức với Di Động Việt, khác với “chính hãng” từ các nguồn hàng trôi nổi trên thị trường.
Với triết lý – mục tiêu – động lực – văn hoá – lời hứa CHUYỂN GIAO GIÁ TRỊ VƯỢT TRỘI cho khách hàng, Di Động Việt muốn mang đến những trải nghiệm hài lòng, hạnh phúc trong mọi hành trình trước, trong và sau bán hàng.
Tham khảo Cnet