Quy định AI ở 3 cấp độ: địa phương, quốc gia và quốc tế

AI đã thâm nhập vào mọi khía cạnh trong cuộc sống của chúng ta, cách mạng hóa nhiều ngành công nghiệp. Ảnh: @jonesday.

Những tiến bộ công nghệ đang tác động đến cuộc sống chúng ta nhanh hơn trước, với sự ra đời của trí tuệ nhân tạo (AI). AI nhanh chóng trở thành một phần quan trọng trong cuộc sống, thay đổi các lĩnh vực kinh doanh, thay đổi đáng kể cách chúng ta sống và làm việc. Tuy nhiên, trong khi nhiều công nghệ AI đang trở nên phổ biến, chúng lại gây ra những lo ngại về đạo đức, pháp lý và xã hội. Vì thế, cần có cách tiếp cận đúng đắn đối với quy định AI.

Kể từ buổi bình minh của thời đại kỹ thuật số, trí tuệ nhân tạo (AI) đã trải qua một quá trình phát triển mạnh mẽ. Từ những chương trình thô sơ đầu tiên của những năm 1950 cho đến những thuật toán phức tạp ngày nay, AI đã đi được một chặng đường dài. Trong những ngày đầu tiên, AI chỉ là một loạt các quy tắc và khuôn mẫu đơn giản.

Nhưng theo thời gian, nó ngày càng trở nên phức tạp và tinh vi. Với mỗi bước đột phá mới, AI ngày càng trở nên mạnh mẽ hơn, có khả năng thực hiện những nhiệm vụ mà trước đây được cho là không thể.

Trong kỷ nguyên AI, cụ thể là kỷ nguyên AI tạo sinh ngày nay, nhiều cuộc trò chuyện, thảo luận đã chuyển từ trạng thái hồ hởi, háo hức sang lo lắng, với việc nhiều nhà lãnh đạo, các cơ quan, nhà hoạt động bày tỏ sự cần thiết phải có quy định trong lĩnh vực này.

Với sự phát triển của công nghệ vượt xa luật pháp hiện hành, các cơ quan ở mọi cấp độ nhận thấy mình đang trong một trò chơi không ngừng bắt kịp, đấu tranh để tạo ra các quy định có thể phù hợp với bản chất không ngừng phát triển của AI.

Họ nhận thức được việc cần phải thu hẹp khoảng cách giữa khả năng của AI với các trụ cột về tính an toàn, minh bạch và tính trách nhiệm giải trình để củng cố niềm tin của công chúng vào loại hình công nghệ này, cũng như làm sao để vừa giúp khai thác tiềm năng của AI một cách có trách nhiệm, mà cũng phải giải quyết sự cân bằng phức tạp, giữa thúc đẩy tính đổi mới, với bảo vệ quyền và tự do cá nhân trong thời đại kỹ thuật số.

Cấp địa phương

Các chính quyền địa phương ngày càng nhận ra tầm quan trọng của việc quản lý AI để bảo vệ quyền lợi của người tiêu dùng, chẳng hạn như nhu cầu về sự công bằng trong việc dùng AI ra quyết định, đặc biệt là trong các lĩnh vực quan trọng như chấm điểm tín dụng, việc làm và thực thi pháp luật.

Các quy định của địa phương cũng có thể tập trung vào việc ngăn chặn sự phân biệt đối xử, đảm bảo tính chính xác của các thuật toán AI, và bảo vệ người tiêu dùng khỏi các hành vi không công bằng hoặc lừa đảo do AI tạo ra.

Ví dụ: Quyền minh bạch là nghĩa vụ của các công ty và tổ chức tiết lộ cách thức hoạt động của hệ thống AI của họ, đặc biệt khi các hệ thống này đưa ra quyết định ảnh hưởng trực tiếp đến các cá nhân, hay cả cộng đồng xã hội. Các yêu cầu về tính minh bạch có thể sẽ nhằm mục đích làm cho các quy trình ra quyết định của AI trở nên dễ hiểu và có trách nhiệm, đồng thời cho phép các cá nhân hiểu được các thách thức, và hiểu các quyết định từ AI có thể ảnh hưởng xấu đến họ như thế nào.

Một ví dụ khác là “Tuyên ngôn về Quyền AI” của tiểu bang Connecticut, Mỹ. Nó là một khuôn khổ lập pháp được thiết kế để bảo vệ quyền của công dân, bằng cách nhấn mạnh tính minh bạch, bảo mật và công bằng trong lĩnh vực AI. Nó vạch ra các quyền cụ thể cho các cá nhân, bao gồm quyền được thông báo khi AI được sử dụng trong quá trình ra quyết định, đảm bảo rằng các cá nhân có thể hiểu, và nếu cần, họ có thể phản đối các quyết định do AI tạo ra.

Khuôn khổ pháp lý này còn yêu cầu kiểm kê hàng năm tất cả các hệ thống sử dụng AI trên toàn tiểu bang, đưa ra các chính sách, cũng như thủ tục phát triển, mua sắm, sử dụng và đánh giá các hệ thống sử dụng AI.

Mặt khác, tiểu bang Colorado, Mỹ thì đã tập trung vào một ngành cụ thể, bằng cách quản lý AI trong Bộ phận Bảo hiểm. Tiểu bang này đã ban hành các hướng dẫn về việc sử dụng AI một cách có đạo đức trong các hoạt động bảo hiểm, nhằm quản lý rủi ro thuật toán, tập trung vào tính minh bạch, không phân biệt đối xử và tính trách nhiệm giải trình.

Hướng dẫn này yêu cầu các công ty bảo hiểm sử dụng AI để bảo lãnh, định giá hoặc xử lý yêu cầu bồi thường phải đảm bảo rằng, hệ thống của họ công bằng, minh bạch và tuân thủ luật bảo hiểm hiện hành.

Cấp quốc gia

Chính phủ liên bang Mỹ cũng đã công nhận tầm quan trọng đặc biệt của việc giám sát phát triển và sử dụng công nghệ AI. Một cột mốc quan trọng trong vấn đề này là “Sắc lệnh hành pháp về phát triển và sử dụng trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy” đã được ban hành vào ngày 30/10/2023.

Lệnh hành pháp này vạch ra một chính sách quốc gia toàn diện về việc phát triển và triển khai AI có trách nhiệm, nhấn mạnh tầm quan trọng của việc bảo vệ quyền công dân, thúc đẩy lòng tin của công chúng và đảm bảo an ninh quốc gia. Lệnh kêu gọi sự hợp tác giữa các cơ quan liên bang để thiết lập các hướng dẫn cho nghiên cứu và ứng dụng AI, tập trung vào các cân nhắc về tính đạo đức, quyền riêng tư dữ liệu, và giảm thiểu rủi ro liên quan đến công nghệ AI.

Pháp luật trong tương lai cũng có thể giải quyết những thách thức và cơ hội đặc biệt do AI mang lại trong các lĩnh vực khác nhau. Điều này bao gồm việc triển khai các khung pháp lý dành riêng cho từng ngành có tính đến các tác động khác nhau từ việc ứng dụng AI, chẳng hạn như kiểm soát quyền riêng tư nghiêm ngặt trong AI chăm sóc sức khỏe – một điều cần thiết được các tổ chức như Hiệp hội Y khoa Mỹ nhấn mạnh.

Cấp quốc tế

Ở cấp độ quốc tế, quy định về AI có thể mở rộng ra những thách thức, do cả các tác nhân hợp pháp và bất hợp pháp đặt ra. Các tác nhân hợp pháp bao gồm các chính phủ và tập đoàn, công ty có thể sử dụng AI theo những cách mà mặc dù là hợp pháp, nhưng lại gây ra những lo ngại về đạo đức hoặc an ninh.

Các tác nhân bất hợp pháp đề cập đến các cá nhân hoặc nhóm sử dụng AI cho các mục đích có hại, chẳng hạn như tội phạm mạng, chiến dịch thông tin sai lệch hoặc các hình thức thao túng kỹ thuật số khác.

Đã có các cuộc thảo luận về cách các tổ chức và thỏa thuận quốc tế có thể giải quyết những thách thức này, bằng cách thúc đẩy hợp tác giữa các quốc gia, nhằm thiết lập các quy tắc và tiêu chuẩn cho việc sử dụng AI có trách nhiệm.

Những nỗ lực bao gồm phát triển các khuôn khổ để ngăn chặn việc lạm dụng công nghệ AI. Mục tiêu là tạo ra một môi trường toàn cầu nơi AI đóng góp tích cực cho xã hội, tăng cường an ninh, thịnh vượng, đồng thời giảm thiểu rủi ro và ngăn chặn sự lợi dụng AI của các tác nhân xấu.

Có thể bạn quan tâm
Mua bán, giao dịch chứng khoán chỉ từ một cổ phiếu dễ dàng ngay trên MoMo

Sản phẩm Chứng Khoán được cung cấp bởi Công ty Cổ phần Chứng khoán CV (viết tắt là CVS) thông qua MoMo đã chính thức ra mắt, theo đó người dùng MoMo từ nay có thể mua bán, giao dịch chứng khoán dễ dàng chỉ từ 1 cổ phiếu.

Trung Quốc phát triển da điện tử mới cho bàn tay robot chịu được thời tiết âm 78 độ C

Các nhà nghiên cứu đến từ Trung Quốc đã phát triển một loại da điện tử mới dành cho bàn tay robot, có khả năng hoạt động trong môi trường cực lạnh tới âm 78 độ C. Sự đổi mới này mang lại lợi ích to lớn cho việc khám phá thám hiểm các vùng cực của đất nước tỷ dân này.

Khởi động chương trình Viettel Future Changemakers 2024, tìm kiếm nhân sự quản lý sản phẩm

Tập đoàn Công nghiệp – Viễn thông Quân đội (Viettel) công bố khởi động chương trình Viettel Future Changemakers 2024 (VFC 2024) để tìm kiếm và đào tạo những nhân sự quản lý sản phẩm – product manager xuất sắc.

Khai thác đúng cách nhóm ngành hàng nổi bật, Việt Nam sẽ tăng trưởng mạnh TMĐT xuyên biên giới

Tại Hội nghị TMĐT xuyên biên giới Amazon 2024 chủ đề “Tinh hoa hàng Việt – Cất cánh toàn cầu” diễn ra tại TP.HCM, Amazon Global Selling công bố các xu hướng nổi bật định hình bối cảnh xuất khẩu trực tuyến đang phát triển mạnh mẽ tại Việt Nam, doanh thu lên đến hàng triệu USD.

VNG đầu tư lớn cho hạ tầng AI Cloud, thu hút khách hàng quốc tế đa lĩnh vực

GreenNode là công ty thành viên trực thuộc VNG Digital Business, chuyên cung cấp nền tảng AI Cloud và phát triển ứng dụng Trí tuệ nhân tạo tạo sinh (GenAI) tại khu vực Châu Á – Thái Bình Dương, vừa chính thức công bố quan hệ hợp tác chiến lược với Nvidia và các đối tác quốc tế.

POCO ra mắt bộ đôi điện thoại F6/F6 Pro và máy tính bảng đầu tiên POCO Pad

Ngày 23/5 tại Dubai, POCO đã ra mắt bộ đôi smartphone POCO F6 và POCO F6 Pro dành cho người dùng yêu thích nhiếp ảnh và gaming. Chiếc máy tính bảng đầu tiên POCO Pad cũng được giới thiệu trong dịp này.

Nối gót Apple, Google đầu tư hàng tỷ USD sản xuất smartphone ở Ấn Độ

Quyết định của Google đẩy nhanh kế hoạch sản xuất thiết bị ở Ấn Độ phù hợp, tương quan với động thái chiến lược của các công ty công nghệ lớn như Apple, nhằm đa dạng hóa khỏi Trung Quốc để giảm thiểu rủi ro địa chính trị.

AI có thể bổ sung thêm một lớp bảo vệ trong trường học, tránh các mối đe dọa học đường

Với sự gia tăng của tội phạm, chứng bắt nạt học đường, việc đảm bảo an toàn và an ninh trong các cơ sở giáo dục đã trở thành ưu tiên hàng đầu. Tuy nhiên, các mối đe dọa sự cố ngày càng tăng trong trường học đã chứng minh rằng, chỉ với các biện pháp an ninh truyền thống thôi là chưa đủ. Vì vậy, để giải quyết thách thức này, các trường học hiện đang chuyển sang sử dụng công nghệ trí tuệ nhân tạo (AI) tiên tiến.

92% khách hàng lâu năm hài lòng với nhà mạng iTel

iTel đã tạo dấu ấn mạnh mẽ trong ngành viễn thông di động Việt Nam bằng nhiều thành tựu với chất lượng dịch vụ 4G vượt trội và các gói cước hấp dẫn. Nhà mạng này cũng vừa công bố kết quả khảo sát đánh giá của khách hàng nhân dịp kỷ niệm 5 năm hoạt động tại Việt Nam.

Nhà trường đóng vai trò quan trọng trong đào tạo, nâng cao nhận thức an ninh mạng cho thế hệ trẻ

Sách trắng mới nhất của Kaspersky cho thấy, 70% nhà giáo dục lựa chọn sử dụng dữ liệu di động cá nhân thay vì Wi-Fi công cộng như một biện pháp phòng ngừa tấn công mạng. Tuy nhiên, 90% trong số họ tin rằng các thiết bị kỹ thuật số của họ có khả năng bị tấn công trong tương lai.