OpenAI, công ty phát triển ChatGPT, đang đối mặt với phản ứng trái chiều từ cộng đồng người dùng sau khi ký thỏa thuận hợp tác với quân đội Mỹ. Sự việc này diễn ra ngay sau khi đối thủ của họ là Anthropic từ chối một thỏa thuận tương tự vì những lo ngại liên quan đến an toàn và bảo mật. Động thái này đang làm thay đổi thói quen sử dụng của nhiều người và gợi lại những cuộc thảo luận về ranh giới của AI trong thực tế.
Quyết định trái ngược giữa Anthropic và OpenAI
Để hiểu rõ bối cảnh sự việc, chúng ta cần nhìn lại quyết định trước đó của Anthropic, công ty phát triển mô hình AI Claude. Anthropic đã từ chối thỏa thuận với cơ quan quốc phòng Mỹ vì họ không muốn công nghệ của mình được sử dụng cho mục đích “giám sát hàng loạt” hoặc tích hợp vào các “vũ khí tự động hoàn toàn”. Khi chính phủ không chấp nhận các điều khoản an toàn này, Anthropic đã quyết định rút lui. Ngay sau đó, OpenAI đã bước vào và ký kết thỏa thuận. Đại diện OpenAI giải thích cho quyết định này rằng: “Chúng tôi tin rằng những người chịu trách nhiệm bảo vệ đất nước cần được tiếp cận với những công cụ tốt nhất hiện có”. Dù OpenAI cho biết thỏa thuận của họ có nhiều biện pháp an toàn nghiêm ngặt hơn cả những gì Anthropic từng yêu cầu, bao gồm các quy định rõ ràng về giám sát và vũ khí, động thái này vẫn chưa thuyết phục được một bộ phận người dùng. Cùng thời điểm, chính phủ Mỹ cũng công bố ý định ngừng sử dụng Claude tại tất cả các ban ngành của họ.

Xu hướng bỏ ChatGPT chuyển sang các ứng dụng AI khác
Quyết định của OpenAI đã khiến nhiều người dùng không hài lòng và dẫn đến xu hướng từ bỏ ChatGPT. Theo ghi nhận, một lượng lớn người dùng đang hủy gói đăng ký trả phí và chuyển sang các nền tảng AI khác, trong đó Claude là một lựa chọn phổ biến. Sự thay đổi này đã giúp ứng dụng Claude nhanh chóng vươn lên vị trí cao trên bảng xếp hạng của App Store tại Mỹ. Trên các mạng xã hội và diễn đàn như Reddit, nhiều người bày tỏ sự thất vọng và cho rằng OpenAI đang đi ngược lại các nguyên tắc ban đầu khi cho phép tổ hợp quân sự sử dụng mô hình ngôn ngữ của mình. Thay vì thảo luận về tính năng mới, nhiều bài đăng hiện nay tập trung vào việc hướng dẫn cách xuất dữ liệu cá nhân và rời khỏi nền tảng.
Sự việc này tiếp tục nhắc nhở về những vấn đề còn gây tranh cãi trong việc phát triển và ứng dụng AI. Trước đây, các chatbot phổ biến đã vấp phải nhiều ý kiến lo ngại liên quan đến việc sử dụng dữ liệu có bản quyền để huấn luyện, nguy cơ ảnh hưởng đến thị trường lao động, hay vấn đề tiêu thụ năng lượng lớn. Việc ứng dụng AI vào quân sự càng làm tăng thêm những băn khoăn này. Điểm khiến người dùng e ngại nhất là cụm từ cho phép sử dụng AI cho “mọi mục đích hợp pháp” trong thỏa thuận của OpenAI. Nhiều ý kiến đánh giá rằng quy định này khá chung chung. Trong bối cảnh các quy định pháp luật về công nghệ cao trong quân sự chưa thực sự hoàn thiện, việc xác định thế nào là “hợp pháp” trên thực tế vẫn còn nhiều khó khăn, khiến người dùng lo lắng rằng công cụ họ dùng hàng ngày có thể hỗ trợ cho các mục đích xa rời dân sự.
Cuộc thảo luận xung quanh thỏa thuận hợp tác của OpenAI và quân đội Mỹ dự kiến sẽ còn tiếp diễn. Sự việc này cho thấy tầm quan trọng của việc minh bạch hóa mục đích sử dụng trong quá trình phát triển công nghệ. Khi người dùng ngày càng quan tâm đến cách các công cụ của họ được vận hành ở quy mô lớn, việc lựa chọn một sản phẩm AI giờ đây không chỉ dựa trên mức độ thông minh mà còn phụ thuộc vào các cam kết an toàn của nhà phát triển.
Theo: techradar




Comments