black friday sale

Big christmas sale

Premium Access 35% OFF

Home Page
cover of dao_luat_ai_cua_eu_mot_su_kien_mang_tinh_dot_pha_5459132e-1317-46cc-b9c9-8c2e957d45fe
dao_luat_ai_cua_eu_mot_su_kien_mang_tinh_dot_pha_5459132e-1317-46cc-b9c9-8c2e957d45fe

dao_luat_ai_cua_eu_mot_su_kien_mang_tinh_dot_pha_5459132e-1317-46cc-b9c9-8c2e957d45fe

nghiencuuchienluocnghiencuuchienluoc

0 followers

00:00-12:20

Nothing to say, yet

Podcastspeechspeech synthesizerfemale speechwoman speakingnarration

Audio hosting, extended storage and much more

AI Mastering

Transcription

The EU's AI law, a breakthrough in the field of AI governance, has received wide international attention. The law provides a comprehensive framework for managing AI and aims to protect citizens' basic rights and community interests. It introduces horizontal supervision of AI systems, categorizes risks into four levels, and establishes enforcement and monitoring mechanisms. However, there are concerns about the potential limitations on technological progress and industrial development. The effectiveness of the law and its impact on international regulations and national policies are still to be evaluated. Đạo luật AI của EU, một sự kiện mang tính đột phá trong lĩnh vực quản lý trí tuệ nhân tạo, nhận được sự quan tâm rộng rãi của cộng đồng quốc tế. Một mặt, cách tiếp cận quản lý và ý tưởng lưỡi mới của đạo luật có giá trị tham khảo nhất định đối với tất cả các quốc gia. Mặt khác, đạo luật cũng bị nghi ngờ rộng rãi vì những hạn chế có thể có đối với tiến bộ công nghệ và phát triển công nghiệp. Do đó, vẫn cần thời gian để kiểm tra xem liệu đạo luật cuối cùng sẽ tạo ra hiệu ứng Bruxelles hay 7 Bruxelles. Đạo luật này là bộ quy tắc toàn diện đầu tiên trên thế giới về việc quản lý trí tuệ nhân tạo, AI, với mục tiêu cung cấp một khung pháp lý dựa trên việc nhận biết và phân tích rủi ro để bảo vệ an toàn thông tin, quyền cơ bản của công dân và lợi ích cộng đồng. Trong quá trình phát triển, sử dụng và thúc đẩy AI, ngoài việc tăng cường sự giám sát, luật cũng đề xuất tìm kiếm sự cân bằng giữa việc thúc đẩy sự đổi mới và khả năng cạnh tranh trong lĩnh vực trí tuệ nhân tạo. Mọi người đều biết rằng, Liên minh châu Âu luôn đứng đầu thế giới trong việc quản lý lĩnh vực công nghệ mới nổi. Cả hai công ước quan trọng là Công ước phòng chống tội phạm mạng Budapest năm 2001 và Quy định bảo vệ dữ liệu chung năm 2016 đã có ảnh hưởng quan trọng đối với an ninh mạng toàn cầu và quản lý an toàn dữ liệu. Đây cũng là những tài liệu chính mà các quốc gia khác học hỏi và tham khảo. Do đó, hiện tượng các quy tắc do EU đơn phương đặt ra có tác động đáng kể đối với các quy định quốc tế và chính sách đối nội của các quốc gia, được gọi là hiệu ứng Bruxelles. Đạo luật trí tuệ nhân tạo của EU, một sự kiện mang tính đột phá trong lĩnh vực quản lý trí tuệ nhân tạo, nhận được sự quan tâm rộng rãi của cộng đồng quốc tế. Một mặt, cách tiếp cận quản lý và ý tưởng lưỡi mới của đạo luật có giá trị tham khảo nhất định đối với tất cả các quốc gia. Mặt khác, đạo luật cũng bị nghi ngờ rộng rãi vì những hạn chế có thể có đối với tiến bộ công nghệ và phát triển công nghiệp. Do đó, vẫn cần thời gian để kiểm tra xem liệu đạo luật cuối cùng sẽ tạo ra hiệu ứng Bruxelles hay bẫy Bruxelles. Khung pháp lý giám sát nghiêm ngặt và đầy đủ tính sáng tạo. Đạo luật tiếp tục triển khai chức lý giám sát nhất quán của EU, lấy việc bảo vệ nhân quyền và các giá trị là nguyên tắc cơ bản, nhằm tìm kiếm sự an toàn và phát triển của trí tuệ nhân tạo. Liên minh châu Âu luôn khẳng định rằng, công dân có quyền được bảo vệ trong không gian số như trong thế giới vật lý. Nếu hệ thống trí tuệ nhân tạo tồn tại nguy cơ vi phạm nghiêm trọng các quyền cơ bản trong hiến chương Liên minh châu Âu về các quyền cơ bản thì nó nên bị cấm hoàn toàn Các lĩnh vực quan trọng khác liên quan đến các rủi ro có thể gây ra cho nhân quyền và xã hội, cần thực hiện giám sát tập trung, và các hệ thống trí tuệ nhân tạo được phát triển phải được đánh giá thẩm định trước khi đưa ra thị trường. Đạo luật có ba điểm đột phá quan trọng. Thứ nhất là mở ra quá trình giám sát theo chiều ngang của trí tuệ nhân tạo. Trước đó, giám sát về trí tuệ nhân tạo thường là giám sát theo chiều dọc trong các lĩnh vực cụ thể. Ví dụ, Mỹ đã áp dụng các biện pháp giám sát trong lĩnh vực tài chính và xe không người lái. Giám sát theo chiều dọc thường liên quan đến các lĩnh vực chuyên môn cụ thể, với một nhóm nhỏ, dễ triển khai giám sát và quản lý hơn. Giám sát theo chiều ngang áp dụng luật pháp đối với tất cả các lĩnh vực và ứng dụng, bao gồm mọi lĩnh vực và con người. Do đó đòi hỏi yêu cầu pháp lý cao hơn và khó đạt được sự thống nhất. Điều này cũng là lý do tại sao đạo luật nhấn mạnh về giám sát nghiêm ngặt mà cũng chú trọng đến sự đổi mới trong quy định. Ví dụ như khuyến khích các quốc gia tiến hành thanh toán mà không dùng đến tiền mặt, cung cấp nhiều hỗ trợ và tiện ích hơn cho các doanh nghiệp vừa và nhỏ. Thứ hai là việc thiết lập một hệ thống giám sát dựa trên cấp độ rủi ro. Liên minh châu Âu đặc quyền con người và an ninh làm tiêu chuẩn, phân loại rủi ro của trí tuệ nhân tạo thành bốn cấp độ, hành vi bị cấm, hệ thống rủi ro cao, hệ thống rủi ro hạn chế và hệ thống rủi ro tối thiểu. Các hệ thống trí tuệ nhân tạo khác nhau phải tuân theo các yêu cầu giám sát khác nhau. Hành vi bị cấm đề cập đến việc sử dụng AI cho các hành vi có thể vi phạm nhiêm trọng nhân phẩm, tự do hoặc dân chủ của con người, chẳng hạn như thao túng, đánh giá xã hội hoặc lạm dụng những dạng sinh các học. Hệ thống rủi ro cao ám chỉ những hệ thống liên quan đến các lĩnh vực xã hội hoặc kinh tế quan trọng như y tế, giáo dục, giao thông, việc làm và tư pháp. Nó có thể gây ra ảnh hưởng lớn đến tính mạng, sức khỏe, an toàn hoặc quyền cơ bản của con người. Đạo luật yêu cầu loại hệ thống này phải trải qua một quá trình đánh giá thẩm định bắt buộc trước khi được phát hành, tuân theo một loạt các nguyên tắc và nghĩa vụ về chất lượng, tính minh bạch, sự can thiệp con người, giám sát và điều chỉnh. Hệ thống rủi ro hạn chế ám chỉ những hệ thống có thể ảnh hưởng đến hành vi hoặc lựa chọn của con người, hoặc ảnh hưởng đến sự riêng tư hoặc các quyền khác của con người, như sự lạm dụng đặc điểm giả mạo, nhận dạng trảm xuất. Năm năm đạo luật yêu cầu loại hệ thống này phải cung cấp thông tin và minh bạch đầy đủ, để người dùng có thể hiểu và kiểm soát các hệ thống này. Hệ thống rủi ro tối thiểu ám chỉ những hệ thống không ảnh hưởng hoặc chỉ ảnh hưởng rất ít đến quyền và lợi ích của con người, như giải trí, game. Năm năm đạo luật không đặt ra yêu cầu giám sát cụ thể cho loại hệ thống này, nhưng khuyên khích tuân thủ các tiêu chuẩn nành nghề tự nguyện và các thực tiễn tốt nhất có thể. Thứ ba là để phù hợp với việc ban hành đạo luật, một hệ thống thực thi đầy đủ và cơ chế giám sát thực thi đa cấp đã được thiết lập. Nó bao gồm Ủy ban trí tuệ nhân tạo của Liên minh châu Âu, các cơ quan giám sát quốc gia của các nước thành viên EU, Ủy ban châu Âu và Ủy ban bảo vệ dữ liệu châu Âu. Ủy ban trí tuệ nhân tạo của EU là một ủy ban chuyên gia bao gồm đại diện của các thành viên liên minh châu Âu. Họ có trách nhiệm phối hợp và thúc đẩy hợp tác giữa các thành viên EU, cũng như tư vấn đề xuất và hướng dẫn về phân loại rủi ro, đánh giá sự phù hợp và phát triển tiêu chuẩn cho AI. Các cơ quan giám sát quốc gia của các thành viên EU là các cơ quan chính chịu trách nhiệm giám sát và thực thi các đạo luật, yêu cầu mỗi quốc gia thành viên phải thành lập ít nhất một cơ quan giám sát quốc gia để kiểm tra và xác minh tính phù hợp và sự tuân thủ của hệ thống trí tuệ nhân tạo, cũng như điều tra và xử phạt các hành vi vi phạm luật. Vì vậy, ủy ban châu Âu và ủy ban bảo vệ dữ liệu châu Âu chịu trách nhiệm giám sát và điều phối ở cấp EU cũng như giải quyết các vấn đề và tranh chấp liên quan đến trí tuệ nhân tạo xuyên quốc gia hoặc liên hành. Đối mặt với nhiều nghi vấn, việc thông qua đạo luật chỉ là bước đầu tiên trong quy định về AI của Liên minh châu Âu. Các tiêu chuẩn kỹ thuật hỗ trợ tiếp theo và cách các quốc gia thành viên thực hiện các yêu cầu quy định như thế nào vẫn còn là một vấn đề. Vì vậy, hiệu quả cuối cùng của đạo luật vẫn cần được đánh giá tốt hơn sau khi thực thi. Nhìn từ góc độ văn bản, những nghi vấn chủ yếu của các bên đối với đạo luật bao gồm ba khía cạnh sau. Đầu tiên, đạo luật không phản ánh đầy đủ sự phức tạp của công nghệ trí tuệ nhân tạo. Giữa sự chắc chắn mà đạo luật theo đuổi và tính không chắc chắn về sự tồn tại của công nghệ trí tuệ nhân tạo vẫn có mô thuận nhất định. Đối với một công nghệ chiến lược đang phát triển nhanh chóng, mặc dù an ninh là rất quan trọng, nhưng việc đầu tư quá nhiều nguồn lực vào an ninh sẽ ảnh hưởng đến sự tiến bộ của công nghệ. Đạo luật đưa ra một loạt các yêu cầu an ninh kỹ thuật, bao gồm hệ thống quản lý rủi ro, tài liệu kỹ thuật, chức lượng dữ liệu, can thiệp của con người, tính minh bạch, rủi chính phát, tính chắc chắn và tính bảo mật 5. 5 để cố gắng thông qua các biện pháp này đảm bảo đội tinh cậy và an toàn của hệ thống AI, bảo vệ các quyền và giá trị cơ bản của con người. Trên thực tế, trong điều kiện công nghệ hiện có, ngay cả các hệ thống trí tuệ nhân tạo đáp ứng các yêu cầu như trên cũng không thể loài bỏ hoàn toàn rủi ro. Về bản chất, rủi ro của AI có các đặc tính không thể dự đoán và khó đo lường như trong tư duy lượng tử. Thứ hai, các ý tưởng quản lý và phạm vi của đạo luật không theo kịp sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo đang tiến hành ngày nay. Mặc dù đạo luật được triển khai dựa trên việc phân loại các mức độ rủi ro, nhưng sự tiến bộ của công nghệ sẽ liên tục phá vỡ ranh giới giữa các mức độ rủi ro khác nhau. Sự tiến bộ nhanh chóng của công nghệ trí tuệ nhân tạo có thể dẫn đến việc các đạo luật đòi hỏi đầu tư lớn về nhân lực và vật lực vẫn chưa có hiệu lực đã bị lạc hậu. Đạo luật đã từng bị trì hoãn do sự ra đời của chất GPT 3.0 và đã được bổ sung thêm nội dung quản lý về trí tuệ nhân tạo sáng tạo. Tuy nhiên, trí tuệ nhân tạo sáng tạo chỉ là một trong nhiều hướng phát triển của AI. Trong tương lai, với sự tiến bộ liên tục về mô hình, sức mạnh tính toán và thuật toán, nhiều công nghệ trí tuệ nhân tạo khác nhau sẽ song hành cùng phát triển, và đạo luật có thể rơi vào tình thế tuột hậu so với sự phát triển của công nghệ. Cuối cùng, vấn đề cân bằng giữa quản lý và sáng tạo. Đạo luật chủ yếu nhắm vào các hệ thống AI có rủi ro cao, những yêu cầu này đặt ra một số gánh nặng và rào cản cho sự phát triển và đổi mới trí tuệ nhân tạo. Đối với các doanh nghiệp lớn, họ đối mặt với ảnh hưởng tích cực và tiêu cực. Mặt tiêu là rất nhiều yêu cầu tuân thủ sẽ cản trở sự phát triển hơn nửa của công nghệ và mở rộng thị trường. Trong khi đó, mặt tích cực là mức ngưỡng tuân thủ cao sẽ ngăn cản nhiều doanh nghiệp gia nhập lĩnh vực trí tuệ nhân tạo, giúp hình thành sự độc quyền. Nhưng điều này có thể gây ra sự bất công đối với một số doanh nghiệp hoặc tổ chức nghiên cứu trí tuệ nhân tạo vừa và nhỏ. Họ khó có thể chịu lượng lực chi phí tuân thủ và rủi ro tương ứng. Việc quản lý chặt chẽ luôn được xem là một trong những nguyên nhân chính hạn chế sự phát triển công nghệ số ở Liên minh châu Âu. Do đó, việc ban hành đạo luật có thể dẫn đến sự tụt hậu hơn nữa trong phát triển công nghệ và công nghiệp AI của EU. Các quốc gia như Pháp, Đức và Ý luôn cảnh giác cao độ về việc đạo luật có thể hạn chế sự phát triển của ngành công nghiệp trí tuệ nhân tạo trong tương lai. Hiệu ứng Bruxelles nên được xem xét một cách hợp lý hơn. Việc ban hành đạo luật là một thực tiễn quan trọng khác của mô hình Bruxelles. Với tư cách là đại diện của quyền lực quy chuẩn toàn cầu, Liên minh châu Âu thông qua những nỗ lực của mình trong các chính sách và quy tắc tiêu chuẩn, đang cố gắng xây dựng sức cạnh tranh quốc tế và tiếng nói của chính mình trong thời đại số hóa. Tuy nhiên, do những hạn chế và thách thức của đạo luật, việc nó có thể dẫn đầu trong việc quản lý trí tuệ nhân tạo toàn cầu hay không vẫn còn nhiều nghi vấn. Liên minh châu Âu đã tiên phong trong việc đưa ra quản lý theo chiều ngang, có ý nghĩa quan trọng trong việc khám phá và thực hành quản lý an toàn trí tuệ nhân tạo toàn cầu. Dù là từ góc độ cơ chế quốc tế hay quản lý giám sát trong nước, các quốc gia đều sẽ theo dõi chặt chẽ đạo luật cũng như tình hình xây dựng cơ sở hạ tầng hỗ trợ về sau. Tuy nhiên, do bản thân đạo luật không có nhiều nội dung độc đáo như Công ước Budapest về tội phạm mạng và Quy định bảo vệ dữ liệu chung, nên phần lớn nội dung dựa nhiều hơn vào các thực tiễn thành công hoặc sự đồng thuận hiện có trong các lĩnh vực khác. Do đó, EU sẽ cần phải kiểm tra khả năng hoạt động của đạo luật trong quá trình thực thi để đạt được ảnh hưởng lớn hơn trong quản trị AI toàn cầu. Liên minh châu Âu với khả năng lập pháp và thực thi pháp luật hàng đội thế giới vẫn rất đáng mong đợi vào thời điểm này. Tuy nhiên, từ đối tượng quản lý, đạo luật chủ yếu nhắm vào các nhà phát triển hệ thống trí tuệ nhân tạo. Đây là ngưỡng cao hơn nhiều so với các nhà thu thập, lưu trữ và xử lý dữ liệu liên quan đến Quy định bảo vệ dữ liệu chung. Do đó, đối tượng điều chỉnh của đạo luật giống như người gác cổng được nêu trong đạo luật dịch vụ kỹ thuật số của EU. Theo cách suy luận này, các doanh nghiệp cần chịu sự quản lý chủ yếu là các nhà phát triển và cung cấp một số ít các mô hình ngôn ngữ lớn của Liên minh châu Âu và Trung Quốc như OpenAI, Antobit Microsoft, Data và Google. Cả Mỹ và Trung Quốc đều có nhu cầu phát triển công nghệ và ngành công nghiệp, sẽ không không chạy theo xu hướng quản lý giám sát nghiêm ngặt trí tuệ nhân tạo. Do đó, công nghệ trí tuệ nhân tạo sẽ phát triển với tốc độ nhanh hơn bên ngoài EU. Ngoài ra, từ gốc độ hiệu quả quản lý, đạo luật chỉ là một bước khởi đầu. Các biện pháp thực thi của nó còn cần rất nhiều tiêu chuẩn kỹ thuật và thực tiễn áp dụng. Hiện nay, các tiêu chuẩn kỹ thuật trong lĩnh vực AI vẫn đang được thiết lập một cách nhanh chóng. Các tổ chức tiêu chuẩn quốc tế như Tổ chức Tiêu chuẩn hóa quốc tế, IEO Liên minh Viễn thông Quốc tế, ITU, Hiệp hội Tiêu chuẩn Kỹ sư Điện và Điện tử, IEEESA, đều đang tăng tốc trong việc thiết lập các tiêu chuẩn an toàn cho trí tuệ nhân tạo. Nói cách khác, việc thực thi của đạo luật cuối cùng sẽ phụ thuộc vào kết quả của các tổ chức tiêu chuẩn quốc tế. Điều này cũng ảnh hưởng đến việc phát huy hiệu ứng Bruxelles.

Listen Next

Other Creators