Apple vừa giới thiệu tính năng mới mang tên Visual Intelligence và nó sẽ là một phần trong bộ công cụ AI Apple Intelligence của hãng, dự kiến ra mắt vào cuối năm nay. Tính năng này hoạt động tương tự như các tính năng tìm kiếm hình ảnh hiện có của Google Lens hay các hệ thống AI đa phương thức khác từ Google và OpenAI.
Visual Intelligence hoạt động như thế nào?
Phó Chủ tịch cấp cao phụ trách gia công Kỹ thuật phần mềm của Apple, Craig Federighi, cho biết, Visual Intelligence cho phép người “tìm hiểu ngay lập tức về mọi thứ bạn nhìn thấy”. Craig Federighi cho biết tính năng này được kích hoạt thông qua “Camera Control”, tên gọi của Apple dành cho nút camera cảm ứng mới trên iPhone 16 và iPhone 16 Pro. Để sử dụng, người dùng chỉ cần nhấn và giữ nút này, sau đó hướng camera về phía đối tượng họ muốn tìm hiểu.
Theo The Verge, iPhone kết hợp giữa trí thông minh trên thiết bị và các dịch vụ của Apple mà không bao giờ lưu trữ hình ảnh của bạn để cung cấp năng lượng cho Visual Intelligence, từ đó cho phép bạn chụp ảnh nhà hàng để biết thông tin về giờ mở cửa. Hướng camera của bạn vào tờ rơi và “các chi tiết như tiêu đề, ngày tháng và địa điểm sẽ được tự động ghi lại.
Tính năng này có thể tìm kiếm trên Google hoặc gửi hình ảnh đến ChatGPT để thực hiện các tác vụ như nhận diện giống chó hoặc xem giờ mở cửa của nhà hàng, chỉ bằng cách hướng camera điện thoại vào chúng. Apple chưa công bố thời điểm cụ thể ra mắt tính năng này, chỉ cho biết nó sẽ có mặt trong năm nay.
Apple không công bố thời điểm cụ thể ra mắt tính năng này, chỉ cho biết nó sẽ “được tích hợp vào Camera Control vào cuối năm nay”.