Theo dõi hành vi
Theo kênh CNN, phần mềm có tên VaakEye do công ty khởi nghiệp Vaak ở Tokyo tạo ra có điểm khác biệt so với những sản phẩm tương tự vốn hoạt động bằng cách khớp khuôn mặt với hồ sơ hình sự. Thay vào nhận diện khuôn mặt, VaakEye dùng hành vi để dự báo hành động phạm tội.
Từ khi VaakEye ra mắt tháng trước, nó đã được triển khai tại 50 cửa hàng trên khắp Nhật Bản.
Hệ thống VaakEye liên tục giám sát hình ảnh từ camera an ninh, phát hiện hành vi khả nghi và thông báo cho nhân viên cửa hàng. Họ có thể xem lại hình ảnh khả nghi ngay lập tức và sẽ quyết định hành động ra sao.
VaakEye giám sát máy quay an ninh để phát hiện hành vi khả nghi. Ảnh: Vaak
Sáng lập viên công ty Vaak, ông Ryo Tanaka, cho biết nhóm của ông đã cung cấp 100.000 giờ dữ liệu giám sát cho thuật toán để huấn luyện nó cách giám sát mọi thứ, từ biểu hiện nét mặt của người mua hàng cho tới cách di chuyển và trang phục. Trong đó, họ dùng cả diễn viên để dàn dựng các tình huống tội phạm và dùng cả hình ảnh từ camera an ninh trong đời thực.
Ông Tanaka cho biết VaakEye sẽ tìm kiếm hành vi liên quan tới tội phạm, ví dụ như nhìn quanh một cách lo lắng, tìm kiếm camera, di chuyển nhanh hơn bình thường…
VaakEye cũng có thể nhìn thấy khi nào hàng trên giá bị ai đó bỏ vào túi. Mỗi hành vi mà hệ thống ghi lại được cân nhắc để đưa ra quyết định. Khi một khách hàng bị nghi ngờ tới một ngưỡng nào đó, hệ thống sẽ gửi cảnh báo cùng đoạn video cho nhân viên cửa hàng.
Theo Vaak, số lượng đồ bị mất do ăn trộm đã giảm 77% trong giai đoạn thử nghiệm tại các cửa hàng tiện ích. Độ chính xác trong phát hiện hành vi khả nghi là 81%. Vaak chuẩn bị ra mắt phần mềm này trên toàn cầu với hy vọng phần mềm có thể giúp giảm thiệt hại do tình trạng ăn cắp cho ngành bán lẻ toàn cầu.
Vấn đề đạo đức và pháp lý
Tuy nhiên, việc sử dụng trí tuệ nhân tạo bắt trộm lại đặt ra đủ loại vấn đề đạo đức. Ông Michelle Grant, nhà phân tích bán lẻ thuộc tập đoàn nghiên cứu thị trường Euromonitor, đặt ra câu hỏi: “Mặc dù cái lợi là ngăn chặn được trộm cắp, nhưng việc ngăn ai đó vào cửa hàng dựa trên phần mềm này có hợp pháp hay hợp đạo đức không?”
Trả lời câu hỏi này, ông Tanaka cho biết đó không phải là điều mà nhà phát triển phần mềm quyết định. Ông nói: “Cái mà chúng tôi cung cấp là thông tin về hình ảnh khả nghi được phát hiện. Chúng tôi không xác định ai là tội phạm, cửa hàng là bên xác định tội phạm”.
Đó cũng là những gì mà quỹ từ thiện nhân quyền Liberty quan tâm. Quỹ này đang vận động để cấm công nghệ nhận diện khuôn mặt ở Anh. Bà Hannah Couchman, nhân viên chính sách của Liberty nói: “Cửa hàng bán lẻ, vốn là một đơn vị tư nhân, lại đang bắt đầu thực hiện chức năng như cảnh sát”.
Liberty cũng lo xảy ra khả năng trí tuệ nhân tạo sẽ khuyến khích phân biệt đối xử. Nghiên cứu năm 2018 của Viện Công nghệ Massachusetts và Đại học Stanford cho thấy các chương trình phân tích khuôn mặt đều phân biệt giới tính và màu da.
Mặc dù ông Tanaka cho biết phần mềm của công ty ông dựa trên hành vi chứ không phải giới tính hay chủng tộc, nhưng bà Couchman vẫn tỏ ra hoài nghi. Bà nói: “Với những công nghệ phụ thuộc vào thuật toán, đặc biệt là liên quan tới hành vi con người, thì lúc nào cũng xảy ra khả năng phân biệt đối xử. Con người phải huấn luyện thuật toán về những điều bị coi là khả nghi”.
Tiếp đó, bà Couchman còn đặt ra vấn đề minh bạch với một loạt câu hỏi: Mọi người có biết chuyện gì đang xảy ra không? Họ có được thông báo không? Thông báo đó có ý nghĩa gì không? Chuyện gì xảy ra với các dữ liệu? Chúng được bảo vệ ra sao? Dữ liệu có thể được chia sẻ không?
Chuyên gia phân tích bán lẻ Grant cho rằng khách hàng sẵn sàng hy sinh một chút riêng tư để được thuận tiện hơn, ví dụ như dùng công nghệ nhận diện khuôn mặt để xác thực thanh toán, nhưng chỉ khi họ biết công nghệ đang được sử dụng.
Bản thân ông Tanaka cũng đồng tình với ý kiến này. Ông nói: “Cần có thông báo trước khi khách hàng vào cửa hàng để họ có thể lựa chọn vào hay không. Các chính phủ cần có quy định yêu cầu cửa hàng cung cấp thông tin về địa điểm và những gì cửa hàng phân tích, cách sử dụng dữ liệu và sử dụng trong bao lâu”.
Ông Christopher Eastham, chuyên gia về trí tuệ nhân tạo thuộc công ty luật Fieldfisher, cho biết hiện chưa có khung quản lý loại công nghệ này. Ông nói: “Các nghị sĩ cần làm rõ và các nhà quản lý cần có hướng dẫn. Họ sẽ cần quyết định tình huống nào là phù hợp để sử dụng công nghệ này”.