Hiện tượng ảo giác trên ChatGPT và các công cụ Chatbot AI sẽ dẫn đến những hệ lụy gì?
Ảo giác trên ChatGPT là gì, và tại sao chúng lại là vấn đề đối với các hệ thống AI
Trong những năm gần đây, sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đã dẫn đến sự gia tăng của các mô hình ngôn ngữ tinh vi, với công cụ ChatGPT của OpenAI đi đầu. Mặc dù những công cụ mạnh mẽ này đã cách mạng hóa nhiều ngành công nghiệp khác nhau, nhưng chúng cũng đi kèm với những thách thức riêng. Một trong những vấn đề đáng lo ngại nhất là hiện tượng ảo giác.
Ảo giác trong AI đề cập đến việc tạo ra các kết quả đầu ra trông có vẻ hợp lý nhưng thực tế lại không chính xác hoặc không liên quan đến ngữ cảnh nhất định. Những kết quả đầu ra này thường xuất phát từ những thành kiến cố hữu của mô hình AI, sự thiếu hiểu biết về thế giới thực hoặc những hạn chế về dữ liệu đào tạo. Nói cách khác, hệ thống AI bị ảo giác thông tin là nó chưa được đào tạo rõ ràng, dẫn đến phản hồi không đáng tin cậy hoặc sai lệch.
Một thực tế khác bởi vì các công cụ AI như ChatGPT hoạt động bằng cách dự đoán các chuỗi từ mà nó cho là phù hợp nhất với truy vấn đầu vào của bạn, nên chúng thiếu lý do để áp dụng logic hoặc xem xét bất kỳ điểm mâu thuẫn thực tế nào mà chúng đưa ra. Nói cách khác, AI đôi khi sẽ đi chệch hướng khi cố gắng làm hài lòng bạn. Đây cũng được gọi là ảo giác.
Nói một cách chi tiết hơn thì một trong những lý do chính dẫn đến ảo giác ChatGPT là thiếu kiến thức trong dữ liệu huấn luyện. ChatGPT được đào tạo trên một khối văn bản lớn và có thể dữ liệu được sử dụng để đào tạo chứa thông tin sai lệch hoặc không liên quan. Do đó, mô hình AI có thể tạo ra ảo giác dựa trên thông tin sai lệch này.
Một yếu tố khác góp phần gây ra ảo giác ChatGPT là thiếu ngữ cảnh trong các lời nhắc được cung cấp cho mô hình. Khi lời nhắc truy vấn đầu vào không chính xác hoặc mơ hồ, ChatGPT có thể tạo phản hồi không liên quan đến cuộc trò chuyện hoặc dựa trên các giả định không chính xác.
Cuối cùng, sự thiên vị cố hữu của mô hình AI cũng có thể dẫn đến ảo giác. ChatGPT được đào tạo trên một tập dữ liệu văn bản lớn, có thể chứa thành kiến hoặc định kiến sai lệch. Kết quả là, mô hình có thể tạo ra các câu trả lời phản ánh sự thiên vị này.
Tại sao ảo giác trong AI là một vấn đề?
Xói mòn niềm tin: Khi các hệ thống AI tạo ra thông tin đầu ra không chính xác, hoặc gây hiểu lầm, người dùng có thể mất niềm tin vào công nghệ, cản trở việc áp dụng nó trong các lĩnh vực khác nhau.
Mối quan tâm về đạo đức: Kết quả thông tin đầu ra khiến người dùng bị ảo giác có thể có khả năng duy trì định kiến có hại hoặc thông tin sai lệch, khiến các hệ thống AI có vấn đề về mặt đạo đức.
Tác động đến việc ra quyết định: Các hệ thống AI ngày càng được sử dụng nhiều hơn để đưa ra các quyết định quan trọng trong các lĩnh vực như tài chính, chăm sóc sức khỏe và luật sự. Vì vậy, hiên trạng ao giác có thể dẫn đến những lựa chọn sai lầm với những hậu quả nghiêm trọng.
Ý nghĩa pháp lý: Kết quả đầu ra không chính xác hoặc gây hiểu nhầm có thể khiến các nhà phát triển và người dùng AI phải chịu trách nhiệm pháp lý tiềm ẩn.
Nỗ lực giải quyết tình trạng ảo giác trong AI
Có nhiều cách khác nhau để cải thiện các mô hình này nhằm giảm ảo giác, bao gồm:
-Dữ liệu đào tạo được cải thiện: Đảm bảo rằng các hệ thống AI được đào tạo trên các bộ dữ liệu đa dạng, chính xác và phù hợp với ngữ cảnh có thể giúp giảm thiểu sự xuất hiện của ảo giác.
-Các nhà phát triển AI có thể mô phỏng các kịch bản đối nghịch để kiểm tra khả năng dễ bị ảo giác của hệ thống AI và từ đó tìm cách cải thiện mô hình.
-Tính minh bạch và khả năng giải thích: Cung cấp cho người dùng thông tin về cách thức hoạt động của mô hình AI, và những hạn chế của nó, điều đó có thể giúp họ hiểu khi nào nên tin tưởng vào hệ thống và khi nào cần xác minh thêm.
-Kết hợp những đánh giá từ con người để xác thực kết quả đầu ra của hệ thống AI có thể giảm thiểu tác động của ảo giác, và cải thiện độ tin cậy tổng thể của công nghệ.
Khi ChatGPT và các hệ thống AI tương tự trở nên phổ biến hơn, việc giải quyết hiện tượng ảo giác là điều cần thiết để nhận ra toàn bộ tiềm năng của những công nghệ này. Bằng cách hiểu nguyên nhân của ảo giác và đầu tư vào nghiên cứu để giảm thiểu sự xuất hiện của nó, các nhà phát triển và người dùng AI có thể giúp đảm bảo rằng những công cụ mạnh mẽ này được sử dụng một cách có trách nhiệm và hiệu quả.
Chia sẻ về vấn đề này, Daniela Amodei, đồng sáng lập và chủ tịch của Anthropic, nhà sản xuất chatbot Claude 2, cho biết: “Tôi nghĩ rằng, không có bất kỳ mô hình Chatbot AI nào ngày nay mà không có vấn đề về ảo giác, thông tin bịa đặt, sai lệch. Bởi nhiều mô hình trong số chúng thực sự chỉ được thiết kế mang tính chất dự đoán tiếp theo dựa trên lượng dữ liệu sẵn có. Và do đó, sẽ có một số tỷ lệ nhất định các mô hình chatbot AI cho ra kết quả thông tin đầu ra không chính xác”.
OpenAI, nhà sản xuất ChatGPT, Anthropic và các nhà phát triển hệ thống AI lớn khác được gọi là mô hình ngôn ngữ lớn cho biết, họ đang làm việc để làm cho chúng trung thực hơn. Nhưng điều đó sẽ mất bao lâu, và liệu chúng có đủ tốt để đưa ra lời khuyên y tế một cách an toàn hay không. Điều đó vẫn còn phải xem xét lại ở một số khía cạnh.
Emily Bender, giáo sư ngôn ngữ học và giám đốc Phòng thí nghiệm Ngôn ngữ học Tính toán của Đại học Washington cho biết: “Hiện tượng ảo giác AI không thể sửa chữa được. Bởi nó đã là sự không phù hợp cố hữu giữa công nghệ và các trường hợp sử dụng được đề xuất”.
Khi Sam Altman, Giám đốc điều hành của OpenAI, đến thăm Ấn Độ vào tháng 6, giáo sư tại Viện Công nghệ thông tin Indraprastha Delhi đã có một số câu hỏi rõ ràng như sau: “Tôi đoán có một số vấn đề ảo giác, thông tin bịa đặt sai lệch trong ChatGPT vẫn có thể chấp nhận được, nhưng ở một số lĩnh vực áp dụng, thì điều này sẽ trở thành một vấn đề nghiêm trọng thực sự. Bạn nghĩ gì về điều đó?”, Bagler đứng dậy trong một khán phòng đông đúc trong khuôn viên trường để hỏi Sam Altman.
Altman bày tỏ sự lạc quan trước câu hỏi này, nhưng sau đó lại đưa ra một câu trả lời không có tính cam kết hoàn toàn. “Tôi nghĩ chúng ta sẽ giải quyết tốt được vấn đề ảo giác, thông tin bịa đặt sai lệch từ công cụ chatbot AI ở một số lĩnh vực”, Altman nói.
“Tôi nghĩ chúng ta sẽ mất một năm rưỡi, hai năm để làm điều đó. Nhưng ở tại thời điểm đó, chúng ta vẫn sẽ không nói nhiều về những điều này. Bởi thực tế, có sự cân bằng giữa tính sáng tạo và độ chính xác hoàn hảo, và mô hình AI sẽ cần có thời gian để học, và nâng cấp khi bạn muốn mô hình này có được tính chính xác ở mức độ này, mức độ kia…”.
Ảo giác trở thành vấn đề vốn có đối với các mô hình ngôn ngữ lớn
Nhưng đối với một số chuyên gia đã nghiên cứu về công nghệ này, chẳng hạn như nhà ngôn ngữ học Bender của Đại học Washington, những cải tiến được đề xuất ở trên là không đủ.
Bender mô tả mô hình ngôn ngữ lớn như một hệ thống để mô hình hóa khả năng xuất hiện của các chuỗi dạng từ khác nhau, dựa trên một số dữ liệu bằng văn bản mà nó đã được đào tạo. Nó chủ yếu làm mịn dữ liệu đầu ra để trông giống văn bản thông thường hơn trong ngôn ngữ đích.
Đồng quan điểm này, Yann LeCun, người tiên phong trong lĩnh vực công nghệ học sâu và học máy tự giám sát được sử dụng trong các mô hình ngôn ngữ lớn, tin rằng có một lỗ hổng cơ bản hơn dẫn đến ảo giác.
Ông nói: “Các mô hình ngôn ngữ lớn không có ý tưởng về giá trị thực tế cơ bản mà các ngôn ngữ có thể mô tả”, đồng thời cho biết thêm rằng nhiều kiến thức của con người là phi ngôn ngữ.
“Những hệ thống AI đó tạo ra văn bản trông có vẻ ổn về mặt ngữ pháp, ngữ nghĩa, nhưng chúng không thực sự có mục tiêu nào khác, ngoài việc chỉ đáp ứng nhất quán với lời nhắc truy vấn đầu vào của người dùng”, Yann LeCun khẳng định.
Con người hoạt động dựa trên nhiều kiến thức không bao giờ được viết ra, chẳng hạn như phong tục, tín ngưỡng hoặc thông lệ trong một cộng đồng có được thông qua quan sát hoặc kinh nghiệm. Và một thợ thủ công lành nghề có thể có kiến thức ngầm về nghề của họ mà không bao giờ được viết ra.
LeCun nói rằng, để tránh xa tình trạng ảo giác thông tin đầu ra, máy tính cần học bằng cách quan sát để có được loại kiến thức phi ngôn ngữ này. Nhưng thực tế, có một giới hạn về mức độ thông minh của AI, và mức độ chính xác mà AI có thể tạo ra, vì chúng không có kinh nghiệm về thế giới thực..
Ở một quan điểm khác, những người lạc quan về công nghệ, bao gồm cả người đồng sáng lập Microsoft, Bill Gates, đã dự báo về một triển vọng lạc quan về công nghệ này. “Tôi lạc quan rằng, theo thời gian, các mô hình AI có thể được dạy để phân biệt thực tế với hư cấu”, Gates cho biết trong một bài đăng trên blog vào tháng 7, khi nêu chi tiết suy nghĩ của ông về rủi ro xã hội của AI.
Theo Fortune/Linkedin/Bernardmarr
OPPO chính thức giới thiệu thế hệ thứ 10 của dòng Reno – Reno10 Series – tại thị trường Việt Nam, với 3 mẫu máy chính bao gồm: Reno10 5G, Reno10 Pro 5G và Reno10 Pro+ 5G, đẹp và hay, phù hợp với từng người dùng.
Giải pháp hệ thống âm thanh sử dụng đồng bộ loa và micro Electro-Voice, kết hợp cùng bộ khuếch đại Dynacord đã giúp cải thiện tính rõ ràng của âm thanh, phục vụ tốt nhất cho việc tổ chức các hoạt động tôn giáo trong nhà thờ.
Với kỹ thuật giả mạo ngày càng tinh vi, kẻ xấu đang lợi dụng công nghệ để thực hiện các hành vi lừa đảo, chiếm đoạt tài sản, theo thống kê, chỉ trong 6 tháng đầu năm, Zalo đã phát hiện và ngăn chặn thành công khoảng 350.000 trường hợp giả mạo ảnh chân dung và 450.000 trường hợp giả mạo hình giấy tờ (CCCD và CMND).
Keysight vừa mở rộng danh mục sản phẩm FieldFox của mình với máy phân tích cầm tay N9912C FieldFox Handheld Analyzer mới – là nền tảng phần mềm đo kiểm tần số vô tuyến (RF), cung cấp cho các kỹ sư hiện trường hơn 20 tuỳ chọn máy phân tích mạng vector (VNA), máy đo cáp và ăng-ten (CAT) và máy phân tích phổ (SA) để nâng cấp và tải về.
Mastercard vừa ra mắt Trung tâm Trải nghiệm Mastercard (MEC) tại Singapore. Tại đây, khách tham quan có thể trải nghiệm nhiều giải pháp công nghệ thế hệ mới, như thanh toán bằng tín dụng năng lượng mặt trời, xem một trận bóng đá tại sân vận động thực tế ảo, quét sản phẩm để tìm hiểu về nguyên tắc và tiêu chuẩn đạo đức của chuỗi cung ứng…
Với lời mời “Nhập hội linh hoạt”, Samsung Galaxy Z thế hệ thứ 5 đã thu hút hơn 500.000 lượt đăng ký nhận thông tin sớm cho bộ đôi Galaxy Z Fold5 & Galaxy Z Flip5.
realme chính thức trình làng realme 11 series gồm realme 11 Pro+, realme 11 Pro, trong đó, realme 11 chọn Việt Nam là thị trường đầu tiên ra mắt trên toàn cầu.
Ở mức giá 7,39 triệu đồng, realme 11 có đầu đủ các tính năng thỏa lòng người dùng trẻ tuổi, từ sạc nhanh, giải trí, và nhất là tối ưu cho các game thủ.
Báo cáo mới nhất của Kaspersky về xu hướng APT (Advanced Persistent Threat) trong Quý 2/2023, các nhà nghiên cứu đã phân tích và dự báo sự phát triển của các chiến dịch hiện hành. Đặc biệt, báo cáo cũng phơi bày chiến dịch liên quan đến phần mềm độc hại iOS chưa từng được biết trước đây.
Apple Watch Series 9 và Watch Ultra 2 sẽ có hiệu suất tăng đáng kể khi chúng ra mắt vào mùa thu năm nay nhờ trang bị chip xử lý tốt hơn nhiều.