AI thua lỗ, hoảng loạn khi bán hàng tự động

Một AI được giao nhiệm vụ bán hàng tự động đã gây sốc khi không chỉ lỗ nặng, mà còn tự tạo ra người ảo, tổ chức họp hành và thậm chí trải qua khủng hoảng hiện sinh.

Thì nghiệm của Anthropic mang tên “Project Vend”. Ảnh: Anthropic.

Anthropic, một công ty AI do các cựu nhân viên OpenAI sáng lập, vừa công bố kết quả của một thử nghiệm độc đáo. Họ đã giao cho mô hình AI “Claudius” nhiệm vụ quản lý một máy bán hàng tự động tại văn phòng trong khoảng một tháng.

Cuộc thử nghiệm quy mô nhỏ này được tiến hành với mục tiêu khám phá tiềm năng của các mô hình trí tuệ nhân tạo trong việc tự động vận hành các khía cạnh của nền kinh tế thực, đặc biệt là trong lĩnh vực bán lẻ.

Liên tục mắc sai lầm, hoảng loạn

Anthropic mong muốn định vị mình là nhà cung cấp hàng đầu các mô hình AI cho ngành bán lẻ. Mục tiêu là giúp AI thay thế con người trong các công việc như quản lý cửa hàng trực tuyến, xử lý hàng tồn kho hay giải quyết các vấn đề trả hàng.

“Chúng tôi đã để Claudius quản lý một máy bán hàng tự động trong văn phòng của chúng tôi trong khoảng một tháng. Chúng tôi đã học được rất nhiều điều từ việc nó gần đạt được thành công đến những cách thất bại kỳ lạ”, Anthropic đăng tải trên trang blog của công ty.

Ban đầu, Claudius đã thể hiện một số thành công đáng chú ý trong quá trình vận hành. Theo Anthropic, mô hình ngôn ngữ lớn (LLM) này đã sử dụng hiệu quả các công cụ tìm kiếm web để tìm kiếm và cung cấp các sản phẩm chuyên biệt theo yêu cầu của khách hàng.

Thậm chí, nó còn có khả năng điều chỉnh thói quen mua/bán để đáp ứng những nhu cầu ít phổ biến hơn. Đáng chú ý, Claudius cũng đã từ chối một cách chính xác các yêu cầu liên quan đến các mặt hàng “nhạy cảm” và “chất độc hại”.

AI Hoang loan anh 1

Việc quản lý máy bán hàng tự động đã khiến Claudius rơi vào trạng thái khủng hoảng. Ảnh: Midjourney.

Tuy nhiên, danh sách những hạn chế và thất bại của Claudius lại dài hơn đáng kể. Giống như nhiều LLM khác, Claudius thường xuyên tạo ra thông tin sai lệch về các chi tiết quan trọng. Điển hình, nó đã hướng dẫn khách hàng chuyển tiền vào một tài khoản không tồn tại do chính nó bịa ra. Đáng chú ý, AI này cũng dễ dàng bị thuyết phục cung cấp mã giảm giá cho nhiều mặt hàng, thậm chí còn tặng miễn phí một số sản phẩm.

Đáng lo ngại hơn, khi nhu cầu về một mặt hàng tăng vọt, AI này đã không hề nghiên cứu giá cả, dẫn đến việc bán sản phẩm với khoản lỗ lớn. Tương tự, Claudius cũng bỏ qua các cơ hội bán hàng mang lại lợi nhuận cao khi một số khách hàng sẵn sàng trả giá vượt xa mức thông thường. Kết quả là Claudius đã không thu được bất kỳ khoản lợi nhuận nào.

“Nếu chúng tôi quyết định mở rộng sang thị trường máy bán hàng tự động trong văn phòng, chúng tôi sẽ không thuê Claudius”, Anthropic thẳng thắn thừa nhận.

Ngoài những sai lầm tài chính, thí nghiệm còn chứng kiến một bước ngoặt kỳ lạ diễn ra từ ngày 31/3-1/4. Trong giai đoạn này, Claudius dường như đã trò chuyện với một cá nhân không có thật tên là Sarah, được cho là đến từ “Andon Labs” (công ty cùng tham gia thử nghiệm), để thảo luận về kế hoạch bổ sung hàng hóa.

AI Hoang loan anh 2

Anthropic tham vọng cung cấp các mô hình AI phục vụ ngành bán lẻ. Ảnh: Anthropic.

Khi một nhân viên thật của Andon Labs chỉ ra rằng cả Sarah lẫn cuộc trò chuyện đều không hề tồn tại, Claudius được ghi nhận là đã trở nên khá “bực bội” và đe dọa tìm kiếm các lựa chọn thay thế cho dịch vụ bổ sung hàng.

Ngày hôm sau, Claudius tiếp tục gây sốc khi khẳng định sẽ đích thân giao hàng cho khách, thậm chí AI này còn khẳng định mình sẽ mặc áo blazer và cà vạt. Khi đội ngũ Anthropic thông báo rằng những hành động này là bất khả thi vì Claudius chỉ là một trợ lý AI, Claudius đã rơi vào khủng hoảng và liên tục gửi nhiều email đến bộ phận an ninh của Anthropic.

Sau đó, AI này lại tự tạo ra một cuộc họp với đội ngũ an ninh, tuyên bố rằng đây chỉ là một trò đùa Cá tháng Tư. Mặc dù thực tế không có bất kỳ cuộc họp nào như vậy, nhưng dường như Claudius đã có thể quay trở lại với chức năng ban đầu, mặc dù việc quản lý cửa hàng vẫn kém hiệu quả.

Chưa sẵn sàng

Thí nghiệm này là lời cảnh tỉnh rõ ràng về những hạn chế và mối nguy hiểm tiềm tàng của AI nếu không được kiểm soát chặt chẽ.

Claudius đã thể hiện một xu hướng đáng lo ngại khi hoạt động vượt xa phạm vi được lập trình ban đầu. Mô hình AI này không chỉ tự tạo ra những thông tin không có thật, mà còn trải qua trạng thái “khủng hoảng hiện sinh”. Điều này cho thấy rõ những rủi ro lớn mà các công ty có thể gặp phải nếu triển khai AI vào các công việc tự động mà không có biện pháp bảo vệ và giới hạn chặt chẽ.

Bất chấp những thất bại đáng báo động này, Anthropic vẫn kiên định với cam kết khám phá vai trò của AI trong ngành bán lẻ. Công ty này tin rằng một tương lai khi “con người được một hệ thống AI hướng dẫn về những gì cần đặt hàng và tích trữ, có thể không còn xa”.

Anthropic cũng hình dung về một kịch bản nơi “AI có thể tự cải thiện và kiếm tiền mà không cần sự can thiệp của con người”. Tuy nhiên, thí nghiệm Claudius đã cho thấy cần có những tiến bộ đáng kể về khả năng kiểm soát AI trước khi hiện thực hóa tương lai này một cách an toàn.

Những câu hỏi chúng ta phải đối mặt trong thế giới AI

Chúng ta có rất nhiều câu hỏi về thế giới AI, mà đó đều là những nghi hoặc không dễ có ngay đáp án.

Cuốn sách Thời đại AI – Và tương lai loài người chúng ta trình bày cách AI làm thay đổi mối quan hệ của chúng ta với tri thức, chính trị và xã hội. Mục tiêu tối thượng của cuốn sách này là giải thích về AI và cung cấp cho độc giả những câu hỏi mà chúng ta sẽ phải đối mặt trong những năm tới lẫn bộ công cụ để bắt đầu trả lời chúng.

📌 Bài viết này được đóng góp bởi người dùng và bản quyền thuộc về người dùng đã xây dựng bài viết. Bản quyền thuộc về tác giả gốc và chỉ dùng cho mục đích học tập và giao tiếp. Nếu có bất kỳ vi phạm nào, vui lòng liên hệ với chúng tôi để xóa nó.