Công ty mẹ Google cảnh báo nhân viên không nhập thông tin bí mật vào các chatbot

Alphabet cảnh báo nhân viên về các chatbot AI, bao gồm cả công cụ Bard của chính họ, do lo ngại về quyền riêng tư. Ảnh: @AFP.

Alphabet (công ty mẹ của Google), một trong những công ty ủng hộ công nghệ trí tuệ thông minh nhân tạo (AI) nhiều nhất, vừa cảnh báo nhân viên của chính họ về các chatbot Bard và ChatGPT.

Khi Google công bố ra mắt thử nghiệm một chatbot vào tháng 2, công cụ Bard đã trả lời sai một câu hỏi trong một video quảng cáo. Sai lầm khiến một số nhà đầu tư sợ hãi, kéo theo đó là sự sụt giảm giá cổ phiếu của Alphabet, xóa 100 tỷ đô la của Alphabet khỏi giá trị thị trường vào thời điểm đó. Hiện tại, Google đã và đang trong quá trình triển khai chatbot Bard của mình tới hơn 180 quốc gia bằng 40 ngôn ngữ. Bard ra mắt chính thức tại Mỹ vào tháng 3.

Nhưng vào ngày 15/6, Alphabet (công ty mẹ của Google) đã đưa ra cảnh báo nhân viên về cách họ sử dụng chatbot, bao gồm cả công cụ Bard của chính công ty, bốn người nắm rõ vấn đề này cho biết với tờ Reuters.

Công ty mẹ của Google, Alphabet đang cảnh báo nhân viên không nhập các tài liệu bí mật của công ty vào các chatbot, bao gồm cả chatbot Bard của riêng họ, những người này cho biết và công ty đã xác nhận, trích dẫn chính sách lâu dài về việc bảo vệ thông tin khi sử dụng các nền tảng chatbot. Các chatbot trong số đó có cả Bard và ChatGPT.

Trong thực tế, các chatbot, bao gồm trình duyệt Bing (đã tích hợp ChatGPT), Bard và ChatGPT, được thiết kế để phân tích và học hỏi từ dữ liệu đào tạo mở rộng. Và người đánh giá của bên thứ 3 có thể truy cập các cuộc trò chuyện này, và có mối lo ngại rằng hệ thống AI có thể vô tình sao chép thông tin mà nó đã học được, có khả năng dẫn đến nguy cơ rò rỉ dữ liệu.

Người dùng cũng có thể ngạc nhiên khi các cuộc hội thoại của họ với chatbot AI được ghi lại theo mặc định, và dữ liệu này được sử dụng để huấn luyện hệ thống. Rủi ro này được nhắc tới, khi Samsung đã xác nhận vào tháng trước rằng, dữ liệu nội bộ của chính họ đã bị rò rỉ sau khi nhân viên sử dụng ChatGPT.

Thậm chí, Alphabet cũng cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính do các chatbot tạo ra và cung cấp. Khi được yêu cầu bình luận, công ty Alphabet cho biết công cụ chatbot AI mới của chính họ, Bard có thể đưa ra các đề xuất mã máy tính không mong muốn, nhưng dù sao thì nó cũng giúp ích cho các lập trình viên. Động thái này cho thấy, cả Alphabet và Google cũng muốn minh bạch về những hạn chế trong công nghệ chatbot AI của mình.

Mặt khác, những lo ngại này cho thấy, Google cũng muốn tránh tác hại kinh doanh từ phần mềm mà hãng tung ra để cạnh tranh với ChatGPT của OpenAI. Sự thận trọng của Google cũng phản ánh những gì đang trở thành tiêu chuẩn bảo mật cho các tập đoàn, cụ thể là cảnh báo nhân viên về việc sử dụng các chương trình trò chuyện chatbot AI có sẵn công khai.

Thực tế, ChatGPT là một mô hình ngôn ngữ mạnh mẽ được thiết kế để trò chuyện với con người và cung cấp phản hồi thông minh. Nó sử dụng các thuật toán nâng cao để hiểu ngôn ngữ tự nhiên, ngữ cảnh và tạo ra các câu trả lời có ý nghĩa. Tuy nhiên, quyền lực lớn đi kèm với trách nhiệm lớn và có những rủi ro liên quan đến việc chuyển thông tin nhạy cảm qua ChatGPT. Rò rỉ dữ liệu là một trong những rủi ro có thể gây hậu quả nghiêm trọng.

Rò rỉ dữ liệu xảy ra khi thông tin bị tiết lộ vô tình hoặc cố ý cho các bên không được phép. Điều này có thể xảy ra theo nhiều cách, bao gồm thông qua hack, lừa đảo, tấn công kỹ thuật xã hội hoặc chỉ là qua lỗi đơn giản của con người.

Trong trường hợp ChatGPT, rò rỉ dữ liệu có thể xảy ra khi thông tin nhạy cảm được nhập vào cửa sổ trò chuyện và truyền qua mô hình. Thông tin này có thể bao gồm thông tin nhận dạng cá nhân, thông tin tài chính, thông tin sức khỏe hoặc bất kỳ dữ liệu bí mật công ty, bí mật thương mại nào khác.

Một trong những lý do chính dẫn đến rò rỉ dữ liệu trong ChatGPT là do thiếu kiểm soát dữ liệu. Khi dữ liệu được nhập vào cửa sổ trò chuyện, nó sẽ được mô hình xử lý và lưu trữ trong bộ nhớ của nó. Mặc dù ChatGPT có các biện pháp bảo mật để bảo vệ dữ liệu người dùng nhưng vẫn có nguy cơ rò rỉ dữ liệu.

Ví dụ: Nếu dữ liệu không được mã hóa đúng cách hoặc nếu có lỗ hổng trong hệ thống bảo mật, dữ liệu có thể bị truy cập bởi các bên trái phép, nhưng đó không phải là rủi ro chính ở đây.

Rủi ro chính liên quan đến rò rỉ dữ liệu trong ChatGPT là khả năng do lỗi của con người. Người dùng có thể vô tình nhập thông tin nhạy cảm vào cửa sổ trò chuyện, vì nghĩ rằng đó là một kênh liên lạc an toàn. Tuy nhiên, thông tin này có thể được truy cập bởi các bên thứ ba.

Rò rỉ dữ liệu có thể gây hậu quả nghiêm trọng cho cả cá nhân và tổ chức. Đối với các cá nhân, nó có thể dẫn đến hành vi trộm cắp danh tính, tổn thất tài chính hoặc thiệt hại về danh tiếng. Đối với các tổ chức, rò rỉ dữ liệu có thể dẫn đến trách nhiệm pháp lý, mất tài sản trí tuệ và tổn hại đến uy tín thương hiệu. Trong một số trường hợp, rò rỉ dữ liệu cũng có thể dẫn đến các khoản phạt và hình phạt theo quy định.

Công ty mẹ Google cảnh báo nhân viên không nhập thông tin bí mật vào các chatbot - Bard 1
Google không phải là công ty duy nhất cảnh giác với việc nhân viên của họ cung cấp dữ liệu nhạy cảm cho chatbot AI. Các công ty khác cũng đã thiết lập các rào cản đối với chatbot AI, bao gồm Apple, Samsung và Amazon, họ cảnh báo nhân viên không sử dụng chatbot AI tại nơi làm việc. Ảnh: @AFP.

Vì vậy, mà ngày càng có nhiều doanh nghiệp trên khắp thế giới thiết lập các biện pháp bảo vệ trên các chatbot AI, trong số đó có Samsung, Amazon.com và Deutsche Bank.

Tháng trước, tờ Wall Street Journal đưa tin Apple đã cấm nhân viên của mình sử dụng chatbot ChatGPT, cũng như một dịch vụ hỗ trợ AI khác có tên Github Copilot, được sử dụng để giúp các nhà phát triển viết mã. Samsung đã thực hiện lệnh cấm tương tự đối với ChatGPT vào tháng 5, sau khi phát hiện ra một sự cố rò rỉ mã nhạy cảm bởi một kỹ sư đã tải nó lên ChatGPT.

Amazon cấm nhân viên chia sẻ bất kỳ mã máy tính hoặc thông tin bí mật nào với chatbot của OpenAI sau khi công ty tuyên bố họ đã phát hiện ra các ví dụ về phản hồi ChatGPT giống với dữ liệu nội bộ của Amazon.

Và không chỉ các công ty công nghệ, một số ngân hàng bao gồm JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank, Wells Fargo và Goldman Sachs đã cấm sử dụng chatbot AI, bởi lo lắng rằng các nhân viên vô tình có thể chia sẻ thông tin tài chính nhạy cảm.

Thậm chí, OpenAI đã phải tắt ChatGPT trong một thời gian ngắn vào tháng 3 để giải quyết lỗi cho phép một số người dùng xem các phần lịch sử trò chuyện của người dùng khác.

Các chuyên gia công nghệ nhận định, những rò rỉ dữ liệu tiềm năng từ công nghệ AI này có thể giúp ChatGPT của OpenAI rất nhiều trướ đối thủ cạnh tranh là Bard của Google trong cuộc đua đang diễn ra để thống trị thế giới AI, nơi hàng tỷ đô la đầu tư và quảng cáo vẫn đang chờ giành lấy.

Đại diện Google cũng nói với Reuters rằng, họ đã có các cuộc trò chuyện chi tiết với Ủy ban bảo vệ dữ liệu của Ireland, và đang giải quyết các câu hỏi của cơ quan quản lý này, sau một báo cáo của Politico cho thấy rằng, công ty đã hoãn việc ra mắt công cụ Bard ở EU trong tuần này để chờ thêm thông tin về tác động của chatbot đối với quyền riêng tư.

Theo Reuters/Forbes/Surf

Có thể bạn quan tâm
Quazi, thần đồng 14 tuổi bắt đầu hành trình công việc điên rồ tại Internet vệ tinh SpaceX

Công ty hàng không vũ trụ đình đám SpaceX đã nhận một thần đồng trẻ tuổi tham gia vào bộ phận Starlink của mình với tư cách là kỹ sư phần mềm. Kairan Quazi, 14 tuổi, chuẩn bị tốt nghiệp vào tháng này tại Đại học Santa Clara ở California. Quazi bắt đầu học khoa học máy tính và kỹ thuật từ năm 11 tuổi.

Những mẫu iPhone sắp mất giá, nên bán ngay

Hệ điều hành iOS 17 được công bố vào đầu tháng này sẽ không tương thích với iPhone X, 8 và 8 Plus, khiến những chiếc điện thoại này ngày càng bị mất giá.

FPT trình diễn hệ sinh thái Công nghệ kiến tạo hạnh phúc tại Industry 4.0 Summit 2023

Tại Diễn đàn cấp cao thường niên về công nghiệp 4.0 năm 2023 (Industry 4.0 Summit 2023), FPT đã trình diễn hệ sinh thái công nghệ kiến tạo hạnh phúc và chia sẻ cách tận dụng sức mạnh công nghệ để đột phá kinh doanh và nâng cao năng lực cốt lõi của doanh nghiệp.

Microsoft chính thức ngừng hỗ trợ Windows 10 21H2

Microsoft đã đưa ra thông báo chính thức cho biết phiên bản 21H2 của Windows 10 đã kết thúc dịch vụ vào ngày 13/6/2023.

Industry 4.0 Summit 2023, VNPT mong công nghiệp công nghệ số của Việt Nam tự cường

Theo Tổng giám đốc Tập đoàn VNPT Huỳnh Quang Liêm, đối với góc nhìn của doanh nghiệp, trong định hướng và triển khai chuyển đổi số quốc gia, sự tham gia của doanh nghiệp Việt là rất quan trọng và phải được ưu tiên tối đa. Nếu Đảng, Chính phủ trao cơ hội cho doanh nghiệp để giải những bài toán lớn cấp Quốc gia, với hàng triệu người sử dụng, sẽ tạo điều kiện thuận lợi để doanh nghiệp được trải nghiệm, phát triển nội lực thông qua giải quyết những bài toán đó.

TCL ra mắt thế hệ Mini LED, QLED mới kết hợp loa thanh và thiết bị nhà thông minh

Tại sự kiện ra mắt sản phẩm lớn nhất châu Á – Thái Bình Dương của mình, TCL đã chính thức công bố những chiếc TV mới cho trải nghiệm rạp hát tại nhà đẳng cấp cùng khả năng kết nối thông minh.

Kaspersky tham gia Hiệp hội IoT Malaysia, nâng cao bảo mật doanh nghiệp Đông Nam Á

Kaspersky vừa qua đã được chào đón với tư cách là thành viên của Hiệp hội Internet vạn vật Malaysia (MyIoTA), đóng góp vào khả năng phục hồi không gian mạng tốt hơn cho các công ty IoT trong khu vực Đông Nam Á.

Huawei đề xuất các giải pháp năng lượng mặt trời cho Việt Nam

Tại Diễn đàn cấp cao Vietnam Industry 4.0 Summit 2023, Huawei Việt Nam đã có những chia sẻ về giải pháp công nghệ điện mặt trời cho Việt Nam.

realme C53 đạt 6.500 đơn đặt hàng sau 72 giờ mở bán

realme C53 lọt top smartphone bán chạy nhất tại Thế Giới Di Động, đạt 6.500 đơn đặt hàng chỉ sau 3 ngày mở bán, tăng 200% so với doanh số mở bán của tiền nhiệm realme C33.

YouTube hạ tiêu chuẩn để đối tác ít người theo dõi vẫn kiếm được tiền

YouTube sẽ cho phép nhiều người sáng tạo kiếm tiền từ nền tảng này hơn, bao gồm cả những người có lượng người theo dõi nhỏ.