Vấn đề 'ảo giác' của ChatGPT của ChatGPT gặp thêm khiếu nại về quyền riêng tư ở EU

OpenAI đối diện với một khiếu nại về quyền riêng tư khác tại Liên minh Châu Âu. Khiếu nại này đã được nâng lên bởi tổ chức quyền riêng tư noyb thay mặt cho một cá nhân khiếu nại, nhắm vào khả năng của trí tuệ nhân tạo ChatGPT của OpenAI không thể sửa chữa thông tin sai lệch mà nó tạo ra về các cá nhân.

Khả năng của các công cụ GenAI tạo ra thông tin sai lệch đã được ghi chú rõ ràng. Nhưng cũng đặt công nghệ này vào một cuộc va chạm với Nghị định Bảo vệ Dữ liệu Tổng quát (GDPR) của Liên minh Châu Âu - quy định cách xử lý dữ liệu cá nhân của người dùng vùng miền.

Các mức phạt cho việc không tuân thủ GDPR có thể lên đến 4% của doanh thu hàng năm toàn cầu. Quan trọng hơn nhiều đối với một tập đoàn có tài nguyên như OpenAI: Các cơ quan bảo vệ dữ liệu có thể yêu cầu thay đổi cách thông tin được xử lý, do đó việc thực thi GDPR có thể thay đổi cách mà các công cụ trí tuệ tạo ra được hoạt động trong Liên minh Châu Âu.

OpenAI đã buộc phải thực hiện một số thay đổi sau một can thiệp sớm của cơ quan bảo vệ dữ liệu của Italy, đã buộc phải ngưng một thời gian của ChatGPT vào năm 2023.

Bây giờ noyb đang nộp khiếu nại GDPR mới nhất chống lại ChatGPT với cơ quan bảo vệ dữ liệu Áo thay mặt cho một cá nhân khiếu nại không tiết lộ danh tính (được mô tả là một 'cá nhân công khai') đã phát hiện ra rằng ChatGPT đã tạo ra một ngày sinh không chính xác đối với họ.

Theo GDPR, người dân ở Liên minh Châu Âu có một loạt các quyền được gắn liền với thông tin về họ, bao gồm quyền được sửa thông tin sai. noyb cho rằng OpenAI đã không tuân thủ nghĩa vụ này đối với sản phẩm của chatbot của họ. Tổ chức này nói rằng công ty từ chối yêu cầu của người khiếu nại để sửa chữa ngày sinh không chính xác, trả lời rằng việc sửa chữa không thể thực hiện kỹ thuật.

Thay vào đó, họ đề xuất lọc hoặc chặn dữ liệu trên các yêu cầu cụ thể, chẳng hạn như tên của người khiếu nại.

Chính sách quyền riêng tư của OpenAI nói rằng người dùng nhận thấy chatbot AI đã tạo ra 'thông tin không chính xác về bạn' có thể gửi 'yêu cầu sửa lỗi' thông qua privacy.openai.com hoặc bằng cách gửi email đến dsar@openai.com. Tuy nhiên, họ nhấn mạnh rằng: 'Vì sự phức tạp kỹ thuật của cách mà các mô hình của chúng tôi hoạt động, chúng tôi có thể không thể sửa chữa sự không chính xác trong mọi trường hợp'.

Trong trường hợp đó, OpenAI đề xuất người dùng yêu cầu loại bỏ thông tin cá nhân của họ khỏi sản phẩm của ChatGPT hoàn toàn - bằng cách điền vào một mẫu web.

Vấn đề của công ty AI là quyền GDPR không phải là từng món. Mọi người ở châu Âu có quyền yêu cầu sửa chữa. Họ cũng có quyền yêu cầu xóa dữ liệu của họ. Nhưng như noyb chỉ ra, không phải OpenAI chọn lựa quyền nào trong số những quyền này sẵn có.

Các yếu tố khác của khiếu nại tập trung vào các vấn đề về sự minh bạch của GDPR, với noyb cho rằng OpenAI không thể nói rõ nguồn gốc của dữ liệu mà nó tạo ra về cá nhân, cũng như dữ liệu chatbot lưu trữ về con người.

Điều này quan trọng vì, một lần nữa, quy định cho phép cá nhân yêu cầu thông tin đó bằng cách gửi yêu cầu truy cập chủ thể (SAR). Theo noyb, OpenAI đã không phản hồi đầy đủ yêu cầu SAR của người khiếu nại, không tiết lộ bất kỳ thông tin nào về dữ liệu được xử lý, nguồn gốc, hoặc người nhận.

Trong một tuyên bố về khiếu nại, Maartje de Graaf, luật sư bảo vệ dữ liệu tại noyb, nói: 'Tạo ra thông tin sai lệch là khá nghiêm trọng. Nhưng khi nói đến thông tin sai lệch về cá nhân, có thể có hậu quả nghiêm trọng. Rõ ràng rằng các công ty hiện không thể khiến các chatbot như ChatGPT tuân thủ theo luật EU, khi xử lý dữ liệu về cá nhân. Nếu hệ thống không thể tạo ra kết quả chính xác và minh bạch, nó không thể được sử dụng để tạo ra dữ liệu về cá nhân. Công nghệ phải tuân theo các yêu cầu pháp lý, không phải ngược lại'.

Công ty nói rằng họ đề nghị cơ quan bảo vệ dữ liệu Áo điều tra khiếu nại về việc xử lý dữ liệu của OpenAI, cũng như thúc đẩy họ áp đặt một khoản phạt để đảm bảo tuân thủ tương lai. Nhưng họ cũng nói rằng 'có khả năng' vụ án sẽ được giải quyết thông qua cộng tác EU.

OpenAI đang đối diện với một khiếu nại rất tương tự ở Ba Lan. Tháng trước, cơ quan bảo vệ dữ liệu địa phương mở cuộc điều tra về ChatGPT sau khi khiếu nại của một nhà nghiên cứu quyền riêng tư và an ninh không thể sửa thông tin không chính xác về anh ta bởi OpenAI. Khiếu nại này cũng buộc tội tập đoàn công nghệ trí tuệ này không tuân thủ các yêu cầu về minh bạch của quy định.

Cơ quan bảo vệ dữ liệu của Italy vẫn đang tiến hành điều tra về ChatGPT. Vào tháng 1, họ đã đưa ra một quyết định dự thảo, nói rằng họ tin rằng OpenAI đã vi phạm GDPR theo nhiều cách, bao gồm liên quan đến khả năng của chatbot tạo ra thông tin sai lệch về con người. Những kết luận cũng liên quan đến các vấn đề chính khác, như hợp pháp của việc xử lý.

Cơ quan bảo vệ dữ liệu Italy đã đặt ra một tháng để OpenAI phản hồi về kết luận của họ. Quyết định cuối cùng vẫn chưa có.

Bây giờ, với một khiếu nại GDPR khác được phát ra đối với chatbot của họ, rủi ro của OpenAI phải đối diện với một loạt các biện pháp giám sát GDPR trên các Quốc gia Thành viên khác nhau đã tăng lên.

Mùa thu năm ngoái, công ty mở một văn phòng khu vực tại Dublin - động thái có vẻ nhằm thu nhỏ rủi ro pháp lý của mình bằng cách có các khiếu nại về quyền riêng tư được tiếp nhận bởi Ủy ban Bảo vệ Dữ liệu của Ireland, nhờ vào một cơ chế trong GDPR được thiết kế để tối giản hóa giám sát về các khiếu nại qua biên giới bằng cách định hướng chúng đến một cơ quan quyền lực của một quốc gia thành viên duy nhất nơi công ty 'chính thức thành lập'.

ChatGPT đang vi phạm luật bảo vệ quyền riêng tư tại Châu Âu, DPA Italy nói với OpenAI

Ba Lan mở cuộc điều tra quyền riêng tư về ChatGPT sau khiếu nại về GDPR