AI là một thiên tài về năng suất và nó sẽ ngày càng trở nên tốt hơn. Nhưng nó không phải là không có sai sót.
Tỷ lệ thành công chỉ sau một đêm của AI đã bỏ xa các biện pháp kiểm tra quyền riêng tư và bảo vệ dữ liệu. Đây không phải là tin tốt nếu bạn là một công ty làm việc với dữ liệu nhạy cảm của người dùng.
Việc triển khai các chatbot AI có sẵn mà không có rào chắn có thể gây hại cho doanh nghiệp của bạn. Hãy hỏi Air Canada!
Mặc dù AI rất giỏi trong việc đơn giản hóa và đẩy nhanh các quy trình nhưng nó cũng có thể “tạo ra” nội dung không mong muốn dựa trên dữ liệu cá nhân. Vậy điều gì có thể làm được. bạn làm với tư cách là một doanh nghiệp để bảo vệ dữ liệu của người tiêu dùng và sử dụng AI một cách có trách nhiệm?
Những cạm bẫy về quyền riêng tư của AI
Hầu hết chúng ta ít chú ý đến những gì chúng ta cung cấp cho các công cụ AI tổng hợp giúp chúng ta theo nhiều cách.
Từ chu kỳ phát triển sản phẩm và đánh giá mã cho đến chiến lược tiếp thị và tuyển dụng – rất nhiều dữ liệu của bên thứ nhất được chia sẻ với bên thứ ba.” Các công cụ AI.
Vì luật pháp và sự hiểu biết về cách thức hoạt động của AI vẫn còn hạn chế nên chúng tôi đang đi lang thang vào những vùng đất chưa được khám phá.
Các công cụ AI chính thống hoạt động như thế nào?
Các công cụ mà chúng tôi gọi là AI về cơ bản là các mô hình ngôn ngữ lớn (LLM) có khả năng nhận dạng, bắt chước và dự đoán mẫu rất tốt. LLM cần các bộ dữ liệu lớn (do đó có tên) để đọc và học hỏi trước khi chúng phản hồi một cách hiệu quả các lời nhắc của người dùng.
Khi nào bạn yêu cầu ChatGPT viết chiến lược tiếp thị cho Gen Z, nó không hiểu ngữ cảnh. Nhưng sau khi đọc hàng nghìn nội dung về các chủ đề tương tự, nó đủ biết để dự đoán câu trả lời phù hợp nhất.
Điều tương tự cũng xảy ra khi bạn hỏi DALL- E để vẽ hình ảnh một phi hành gia cao bồi.
Điểm gây tranh cãi là những bộ dữ liệu lớn mà các công cụ AI cần tự đào tạo. Chất lượng và mức độ liên quan rất quan trọng ở đây và các công ty sẵn sàng trả nhiều tiền nhất cho dữ liệu đào tạo.
Các công ty AI sử dụng công khai và các tập dữ liệu được cấp phép để đào tạo các sản phẩm của họ bao gồm các bài đăng trên mạng xã hội trong nhiều năm, các cuộc thảo luận trên diễn đàn, các bài đăng trên blog và thậm chí toàn bộ Wikipedia. Ví dụ: GPT-3 đã được đào tạo trên 45 terabyte dữ liệu văn bản
Rủi ro bảo mật dữ liệu người dùng
Nếu thứ gì đó trực tuyến và có sẵn công khai, rất có thể ngày nay nó được sử dụng để đào tạo một số công cụ AI. Dưới đây là một số lý do khiến quyền riêng tư trở thành mối lo ngại:
Thiếu minh bạch
Chúng ta không biết những bộ dữ liệu này được lưu trữ như thế nào và ở đâu, các công ty AI thực hiện những biện pháp nào để bảo vệ thông tin nhạy cảm và cách người dùng được bảo vệ trước các cuộc tấn công mạng.
Chắc chắn, OpenAI dẫn đầu với tài liệu phong phú nhưng các công ty vẫn chưa được quản lý để cung cấp Tính minh bạch.
Trên hết, chúng tôi không biết các công cụ AI tạo ra câu trả lời như thế nào. Vì AI tạo ra thường gây ảo giác hoặc bịa đặt sự thật nên nó có thể tạo ra những thách thức pháp lý cho doanh nghiệp.
Thiếu trách nhiệm
Có sự nhầm lẫn lớn về việc ai chịu trách nhiệm cho những sai lầm của AI tạo ra. Trong trường hợp của Air Canada, họ đã cố gắng tranh luận rằng chatbot là một thực thể pháp lý riêng biệt nhưng không thuyết phục được tòa án.
Trừ khi bạn đang sử dụng gói ChatGPT Enterprise, OpenAI sẽ theo dõi bạn lịch sử trò chuyện để huấn luyện mô hình của nó theo mặc định. Bạn có thể chọn không tham gia nhưng tính năng này được ẩn sâu trong cài đặt của bạn.
Bây giờ, hãy hình dung tình huống này: Một đại diện dịch vụ khách hàng muốn gửi email tiếp theo cho khách hàng để tóm tắt lại cuộc trò chuyện của họ và phác thảo các yêu cầu của họ.
Họ mở tài khoản OpenAI cá nhân của mình để yêu cầu ChatGPT viết bản nháp, bao gồm thông tin nhận dạng cá nhân (PII) để tạo ra kết quả chi tiết hơn.
Sự tương tác đó sau đó trở thành một phần của mô hình đào tạo của OpenAI, bao gồm cả dữ liệu cá nhân của khách hàng.
Nhiều công ty vẫn chưa đặt ra các biện pháp bảo vệ về cách nhân viên của họ có thể (và nên) tận dụng các công cụ AI.
Việc thiếu trách nhiệm bảo vệ dữ liệu có thể dẫn đến các sự cố trộm cắp danh tính tổng hợp và vi phạm dữ liệu khách hàng.
Thiếu sự rõ ràng trong chính sách và pháp lý
Cuối cùng, tất cả đều tập trung vào khung pháp lý.
Các nhà chức trách dường như cũng không biết gì về AI như người dùng. Chúng ta vẫn chưa thấy các chính sách được thiết lập buộc các công ty LLM và AI phải chịu trách nhiệm về việc thu thập và lưu trữ dữ liệu.
Các công ty và các cơ quan chính phủ đang hợp tác để tạo ra các chính sách sử dụng AI an toàn và có ý nghĩa nhưng việc triển khai giống như GDPR vẫn còn rất xa.
Các bước để bảo vệ quyền riêng tư của người tiêu dùng
Nếu bạn là một doanh nghiệp sử dụng AI hết tiềm năng của nó, bạn cần phải nỗ lực phối hợp để bảo vệ dữ liệu của người tiêu dùng.
Dưới đây là một số cách bạn có thể bảo vệ quyền riêng tư:
Giao tiếp với người dùng và cho phép họ từ chối
Nếu bạn đang sử dụng chatbot AI để phục vụ khách hàng, hãy đảm bảo bạn đưa vào tuyên bố từ chối trách nhiệm giải thích cách xử lý dữ liệu khách hàng và cách khách hàng có thể từ chối dữ liệu đó.
Khi khách hàng biết những gì họ đang sử dụng và những tác động, họ sẽ ít có khả năng bị phản đối hơn. bị bất ngờ trước những ảo tưởng về AI.
Việc cung cấp thông tin cho khách hàng của bạn về những việc cần làm nếu danh tính của họ bị đánh cắp có thể là một phần quan trọng trong bất kỳ chiến lược truyền thông nào.
Thiết lập thiết kế ưu tiên quyền riêng tư
Đây là phần mở rộng của bước đầu tiên. Nếu bạn có thiết kế ưu tiên quyền riêng tư trên toàn công ty, bạn sẽ có nhiều khả năng bảo vệ dữ liệu người dùng khỏi bị rò rỉ hơn.
Thiết kế ưu tiên quyền riêng tư đặt dữ liệu và quyền riêng tư của người dùng lên hàng đầu về bảo mật và thực hiện các bước để tuân thủ các quy định và lấy được lòng tin của người tiêu dùng. Nó bao gồm bảo trì chủ động, bảo mật đầu cuối, tài liệu và thông tin liên lạc minh bạch cũng như tôn trọng dữ liệu của người tiêu dùng.
Thiết kế ưu tiên quyền riêng tư này, kết hợp với cơ sở hạ tầng AI phù hợp, đảm bảo sự bảo vệ và tin cậy toàn diện trong việc xử lý dữ liệu người dùng.
Cải thiện chất lượng tập dữ liệu
Vì quản trị dữ liệu là một phần quan trọng trong thiết kế ưu tiên quyền riêng tư nên bạn có thể thử sử dụng dữ liệu của bên thứ nhất và bên thứ nhất để đào tạo AI tổng hợp.
Mô hình Llama của Meta hoàn toàn là về các mô hình đào tạo tùy chỉnh phù hợp với các trường hợp sử dụng riêng biệt và ChatGPT có các plugin và các mô hình tùy chỉnh để đào tạo trên các tập dữ liệu do người dùng cung cấp. Nếu bạn có thể cung cấp lượng dữ liệu nội bộ cho AI, nó có thể phục vụ nhân viên và khách hàng của bạn tốt hơn.
Các tập dữ liệu tùy chỉnh sẽ trở thành tiêu chuẩn trong tương lai khi ngày càng có nhiều ấn phẩm chặn trình thu thập thông tin GPT và quyết định đào tạo. LLM của riêng họ. Ví dụ: Bloomberg đã phát hành BloombergGPT vào năm ngoái, dựa trên các báo cáo tài chính độc quyền trong nhiều năm.
Dữ liệu xác thực chỉ là bước đầu tiên. Bạn phải tích cực loại bỏ các thành kiến về thuật toán để giảm sự phân biệt đối xử của người dùng và duy trì vệ sinh dữ liệu để giảm bề mặt bị tấn công
Đào tạo nhân sự
Những nhân viên nhận thức được cạm bẫy của các công cụ AI ngốn dữ liệu có nhiều khả năng giữ dữ liệu an toàn hơn. Nhưng chúng cũng là cửa ngõ dễ dàng dẫn đến kho dữ liệu AI nếu bạn không cẩn thận.
Một vấn đề đặt ra là các nỗ lực lừa đảo do AI cung cấp, deepfake và các hành vi lừa đảo của CEO đã làm phát sinh một loại tội phạm mạng mới chính xác, hiệu quả và khó phát hiện.
Nhân viên cần có khả năng chống trộm danh tính và các cuộc tấn công kỹ thuật xã hội để không chỉ bảo vệ bản thân mà còn cả dữ liệu của khách hàng.
Đào tạo nhân viên của bạn liên quan đến việc chia sẻ dữ liệu công khai, quản lý công cụ AI và tuân thủ. Điều này bao gồm việc không tải lên các ảnh ngẫu nhiên để có được những bức chân dung mang tính điện ảnh đó, đọc chính sách quyền riêng tư trước khi nhập dữ liệu và xóa lịch sử trò chuyện thường xuyên.
Tại nơi làm việc, hãy khuyến khích họ chỉ sử dụng các phiên bản dành cho doanh nghiệp. điều chỉnh cài đặt để giữ an toàn cho dữ liệu và thường xuyên tổ chức các buổi hội thảo để cập nhật thông tin về sự phát triển của ngành.
Tuân theo luật bảo vệ dữ liệu
Bạn nên tuân thủ các luật về quyền riêng tư dữ liệu đã được thiết lập ngay cả khi bạn không bắt buộc phải tuân theo chúng. Các chính sách như GDPR, CASL, HIPAA và CCPA cung cấp một khuôn khổ tốt cho việc thu thập dữ liệu, sự đồng ý và quyền- những luật bị lãng quên.
Mặc dù luật chưa có điều khoản cụ thể cho các quy định về AI, nhưng các ý tưởng bao quát đều tương tự và có thể được triển khai ở bất kỳ tổ chức nào coi trọng quyền riêng tư
AI là người bảo vệ quyền riêng tư?
Tác động của AI là rất lớn và có thể được cảm nhận ở cả hai bên. Nhưng nó cũng có thể dẫn đầu trong việc bảo vệ dữ liệu.
Xem xét lại Bộ dữ liệu đào tạo AI
Dữ liệu đào tạo thô có thể dẫn đến vi phạm dữ liệu quy mô lớn. Đó không phải là tin tốt. Tuy nhiên, đối với người tiêu dùng, việc ngăn các mô hình AI truy cập các bộ dữ liệu cập nhật không phải là giải pháp.
Khi bạn sử dụng AI để xây dựng báo cáo và hồ sơ, quyền riêng tư khác biệt có thể giúp dữ liệu của bạn không bị rò rỉ.
Ngoài ra, AI tổng hợp có thể tạo dữ liệu tổng hợp bắt chước các con số trong thế giới thực mà không thực sự sử dụng chúng. Nó ẩn danh dữ liệu đào tạo để dữ liệu thực tế có thể được bảo vệ.
An ninh mạng được hỗ trợ bởi AI
Theo dự báo an ninh mạng của Google Cloud, AI tổng quát sẽ góp phần gây ra các cuộc tấn công mạng tinh vi vào năm 2024. Cách tốt nhất để giải quyết AI xấu là sử dụng AI tốt.
Mạng đối thủ tổng hợp (GAN) được sử dụng để phân tích các mô hình tội phạm mạng hiện có và phát triển các cuộc tấn công hợp lý dựa trên dữ liệu lịch sử dữ liệu. Nó chính xác hơn nhiều so với những gì bạn tưởng vì GAN chia quá trình đào tạo thành hai phần — một phần tạo ra các kịch bản tội phạm mạng hợp lý và một phần phân biệt đối xử đánh giá kết quả và quyết định xem điều đó có khả thi hay không.
Tại một thời điểm nào đó, người phân biệt sẽ đánh giá nhiều kết quả hơn càng tốt, điều này cho thấy GAN có thể được sử dụng để thực hiện các bước chủ động chống lại tội phạm mạng trong tương lai. Khi GAN tiếp tục phát triển dựa trên dữ liệu mở rộng, chúng sẽ có thể phát hiện những điểm bất thường nhỏ nhất và giúp các nhóm bảo mật ngăn chặn các cuộc tấn công mạng từng xảy ra.
Trong tương lai, các chính sách quản lý thiết bị di động sẽ mở rộng để mang lại AI của riêng bạn vì nhiều nhân viên sẽ sử dụng các mô hình tùy chỉnh dân chủ hóa. Việc cấm AI có thể không thành công đối với các công ty vì nhân viên sẽ tìm cách thu được lợi ích hiệu quả mà không thông báo cho công ty, dẫn đến rò rỉ dữ liệu tiềm ẩn. Trong những trường hợp như vậy, doanh nghiệp nên làm việc cùng nhân viên xây dựng và triển khai các mô hình AI có trách nhiệm, đồng thời khuyến khích họ hoạt động theo chính sách
Vai trò của AI trong một thế giới không có cookie là gì?
Trong một bước phát triển gần đây hơn, AI dường như là đi đầu trong thế giới hậu cookie. Bạn có nhớ những cửa sổ bật lên khó chịu trên các trang web yêu cầu bạn chấp nhận cookie không? Google đang loại bỏ chúng bằng một thứ gì đó phức tạp hơn.
Cookie theo dõi người dùng trên khắp thế giới.” internet để giúp các nhà tiếp thị phân phát quảng cáo tốt hơn cho họ. Tùy thuộc vào việc thực thi, điều này có thể xâm phạm quyền riêng tư trực tuyến. Giải pháp thay thế của Google cho điều này là một hộp cát về quyền riêng tư sẽ đính kèm ba chủ đề rộng rãi cho người dùng và sẽ được chia sẻ với các nhà quảng cáo để phân phát quảng cáo. làm giảm đáng kể hiệu quả của quảng cáo nhưng AI có thể giúp ích!
Vì các nhà tiếp thị không thể nhận được các thông số hành vi cụ thể nữa nên họ có thể sử dụng AI để chính xác và hiệu quả hơn. Với dữ liệu tổng hợp và các khung bảo mật khác biệt, các nhà tiếp thị có thể thử nghiệm A/B các chiến lược, cung cấp dữ liệu. nghiên cứu và trích xuất thông tin chi tiết từ các bãi dữ liệu – tất cả đều có sự trợ giúp của AI.
Dữ liệu người tiêu dùng và vị trí của họ
Quyền riêng tư của người dùng trong thời đại AI là một chủ đề được tranh luận sôi nổi chỉ vì chúng ta không có đủ dữ liệu để hành động. Các quy định về AI sẽ gây ra những hậu quả sâu rộng cho các doanh nghiệp nên chính quyền không thể bỏ qua.
Một số chính sách đang được tạo ra và sửa đổi để giải quyết những tác động đang phát triển nhanh chóng của AI. Dưới đây là một số trong số đó bạn nên theo dõi và chú ý đến:
- CRPA: Đạo luật về quyền riêng tư của California (CRPA) là phiên bản phát triển của CRPA ban đầu. từ GDPR để buộc các công ty giao dịch với cư dân California truyền đạt chính sách lưu trữ và chia sẻ dữ liệu của họ nếu họ cảm thấy muốn.
- Delete Act: Theo Đạo luật xóa, một số tiểu bang như California, Vermont và Texas yêu cầu. các nhà môi giới dữ liệu thu thập và bán dữ liệu người dùng để đăng ký với các tiểu bang California còn tiến thêm một bước nữa khi cho phép người dùng yêu cầu các nhà môi giới dữ liệu xóa vĩnh viễn dữ liệu của họ.
- Partnership to AI: Liên minh PAI tập trung vào việc phát triển các mô hình AI một cách an toàn và có trách nhiệm. đảm bảo họ bảo vệ dữ liệu người dùng và luôn tuân thủ các mối đe dọa bảo mật ngày càng gia tăng. Đó là một liên minh đang phát triển với nguồn lực dồi dào dành cho các công ty muốn có nhiều quyền kiểm soát hơn đối với các mô hình AI của họ.
Kết luận về quyền riêng tư trong thế giới AI
Đối với mỗi cuộc gọi robot hoặc deepfake do AI thao túng, chúng ta đều có những câu chuyện đáng kinh ngạc về các vụ hack năng suất, xây dựng chiến lược và phát triển cá nhân.
Đúng là AI đã mở ra một kỷ nguyên mới của cơn ác mộng về quyền riêng tư mà chúng ta không được trang bị đầy đủ để xử lý ngay lúc này nhưng có nhiều thứ sẽ chỉ phát triển và kết tinh thành các quy định.
Cho đến lúc đó, chúng ta nên nhìn xa hơn sự quyến rũ của từ “AI” và xem nó như ngày nay – một công cụ tạo và nhận dạng mẫu phức tạp dựa trên các tập hợp lớn dữ liệu người dùng.
Nếu chúng ta áp dụng trách nhiệm bảo vệ dữ liệu và tuân theo các khái niệm cơ bản về quyền riêng tư như được nêu trong GDPR hoặc CRPA, chúng tôi sẽ có thể bảo vệ dữ liệu người tiêu dùng của mình.