Trách nhiệm bồi thường thiệt hại trong kỷ nguyên trí tuệ nhân tạo

Trách nhiệm bồi thường thiệt hại trong kỷ nguyên trí tuệ nhân tạo

TS. DƯƠNG QUỲNH HOA

Viện Nhà nước và Pháp luật, Viện Hàn lâm KHXH Việt Nam.

Tóm tắt: Trí tuệ nhân tạo đang ngày càng tích hợp liền mạch vào cuộc sống hàng ngày của con người; tác động đến nhiều khía cạnh của xã hội và công nghiệp, từ khám phá khoa học, chăm sóc sức khỏe và chẩn đoán y tế đến chính phủ điện tử, các thành phố thông minh, lĩnh vực bán lẻ, giao thông vận tải, định giá... Sự phát triển như vũ bão của máy móc cũng đồng thời làm phát sinh một số thách thức đối với xã hội và lĩnh vực pháp lý, nhất là những thách thức trong trách nhiệm bồi thường thiệt hại, xác định ai chịu trách nhiệm pháp lý, và ở mức độ nào?

Từ khoá: Trí tuệ nhân tạo, thách thức, trách nhiệm pháp lý, bồi thường thiệt hại.

Abstract: Artificial intelligence is becoming integrated into our everyday lives.
It also has a significant impact on many aspects of society and industry, from scientific exploration, healthcare and medical diagnostics to e-government, smart cities, the retail sector, transport, valuation... The rapid development of machines raises a number of challenges to society and the legal field, which we have not been prepared to deal with. Specially, the liability for compensation to damages, who responsible for legal liability, and to what extent?

Keywords: Artificial intelligence, challenges, legalliability, compensations.

1. Trí tuệ nhân tạo - thách thức đặt ra đối với pháp luật

Xét tính chất đa diện của nó, trí tuệ nhân tạo (Artificial Intelligence- AI) đã chạm đến đầy đủ các lĩnh vực pháp lý, từ lĩnh vực nhân quyền, lao động, hợp đồng, bồi thường thiệt hại, đến lĩnh vực tố tụng. Mặc dù trong thực tế, AI mới chỉ bắt đầu trở nên phổ biến trong ngành công nghiệp pháp lý[1].

Trước hết, AI cũng có thể làm phát sinh chủ thể của tội phạm mới trong tương lai. Trong một tương lai không xa, có thể có những đột biến to lớn do sự phát triển của AI với những cỗ máy ngày càng có khả năng tư duy, trí tuệ, cảm xúc và hành động độc lập, toàn diện hơn con người, thậm chí đòi bình đẳng với con người. Cũng phải kể đến một yếu tố nữa là tội phạm công nghệ cao, vì đây là một nguy cơ tiềm ẩn khắp nơi. Nếu tội phạm công nghệ cao tấn công vào hệ thống AI, vào hệ thống dữ liệu trong các cơ quan nhà nước thì hậu quả sẽ khôn lường. Bởi vậy, trong quá trình tiến hành khai thác thành tựu của cách mạng công nghiệp 4.0 và AI, chúng ta phải nỗ lực ứng phó với những thách thức, mối đe dọa đặt ra, trong đó có phương diện chính sách hình sự[2].

Thứ hai, việc gia tăng sử dụng IoT (internet of things) và IoS (internet of services) sẽ làm tăng nguy cơ xâm phạm đời tư, tấn công thông tin, an ninh mạng và những vấn đề liên quan đến trách nhiệm của con người trong sử dụng các sản phẩm kết nối không dây hay các phương tiện không người lái, các nhân công robot,... sẽ kéo theo là những vấn đề phải giải quyết về mặt pháp lý, tính hợp pháp của các giao dịch qua mạng bằng toàn bộ hoặc một phần lớn máy móc thay thế cho con người. Ngoài ra, đòi hỏi thiết yếu của việc duy trì tính toàn vẹn của quá trình sản xuất, tránh các rủi ro về công nghệ thông tin, những yếu tố sẽ gây hậu quả xấu cho sản xuất, đòi hỏi bảo vệ bí quyết công nghiệp,...[3].

Thứ ba, liên quan đến bằng sáng chế và chất lượng bằng sáng chế[4]. Internet vạn vật (IoT) phụ thuộc vào giao tiếp giữa hai hoặc nhiều đối tượng thông minh và người tiêu dùng và thách thức là liệu người phát minh ra một số loại ứng dụng IoT nào đó có thể vượt qua bài kiểm tra để đủ điều kiện cấp bằng sáng chế hay không? Ngay cả khi họ có được bằng sáng chế về các phương pháp và giao thức mới, các bằng sáng chế đó vẫn có thể rất khó chống lại những vi phạm của nhiều người[5].

Thứ tư, khi việc thu thập và phân tích dữ liệu đang lan rộng dần từ các công ty phần mềm sang các công ty sản xuất, họ đã bắt đầu khai thác các khả năng phát sinh từ việc thu thập và khai thác dữ liệu tiềm năng, để có thể tạo ra giá trị gia tăng[6], những vụ “tràn dữ liệu” này đã đặt ra những lo ngại khác nhau về mặt pháp lý. Người ta cho rằng, dữ liệu đã trở thành nguyên liệu đầu vào cần thiết của công nghệ AI, giúp AI học được cách tư duy của con người, cho ra kết quả cao hơn tư duy con người, tạo ra nguồn giá trị kinh tế và xã hội mới to lớn[7]. Big Data đã được xác định là “điều lớn lao tiếp theo trong sự đổi mới”[8], hay là “mô hình thứ tư của khoa học”[9]. Tuy nhiên, những người có quyền sử dụng dữ liệu này đặt ra câu hỏi rằng, dữ liệu có thể được giao dịch hay không và nếu có thì quy định nào sẽ áp dụng cho điều này. Để ngăn chặn sự suy giảm nền kinh tế và đổi mới dữ liệu, cần có quy định thông minh để thiết lập sự cân bằng giữa việc sử dụng dữ liệu có lợi và bảo vệ quyền riêng tư, không phân biệt đối xử và các giá trị hợp pháp khác được bảo vệ. Việc thu thập các tập dữ liệu lớn và sử dụng các phân tích dữ liệu hiện đại cho thấy mối đe dọa rõ ràng đối với việc bảo vệ các quyền cơ bản của công dân, bao gồm quyền riêng tư[10]. Trong nhiều trường hợp, có những người sẵn sàng bất chấp không gian riêng tư của người khác để chiếm đoạt những dữ liệu cá nhân này.

Thứ năm, công nghệ thông tin và truyền thông đang thay đổi vai trò của người tiêu dùng “từ cô lập sang kết nối, từ không biết đến biết, từ thụ động sang tích cực”[11]. Quá trình này đôi khi cũng được gọi là “số hóa” của người tiêu dùng[12], mọi người ngày càng có thể dễ dàng sử dụng các dịch vụ kỹ thuật số. Các thế hệ trẻ lớn lên với kỹ thuật số hóa và luôn đi đầu trong việc áp dụng công nghệ mới. Điều này có nghĩa là các giả định truyền thống trong luật bảo vệ quyền lợi người tiêu dùng rằng người tiêu dùng không hiểu biết và do đó yêu cầu sự bảo vệ pháp lý đặc biệt không còn đúng nữa. Tuy nhiên, sự thay đổi nhanh đến mức các thế hệ “tiền Internet” hầu như không theo kịp để thích ứng, các phương thức sản xuất mới cũng sẽ mang đến những mối nguy hiểm mới cho người tiêu dùng. Vì vậy, luật bảo vệ quyền lợi người tiêu dùng phải thích nghi với những thách thức mới.

Thứ sáu, chính sách thuế cũng sẽ đóng một vai trò rất quan trọng trong thời đại của các đối tượng thông minh. Trong thời đại hiện nay, chi phí dành cho lao động của con người đang ngày càng tăng lên. Do đó, lao động của máy móc nói chung và trí tuệ nhân tạo nói riêng sẽ có xu hướng thay thế lao động của con người. Khi tự động hóa thay thế con người, số lượng lao động dư thừa sẽ tăng lên, ngoài tác động về kinh tế, sự bất bình đẳng xã hội là vấn đề đáng được quan tâm. Vì phần lớn các khoản thu thuế hiện nay có nguồn gốc từ lao động con người, các công ty sẽ tránh việc nộp thuế bằng cách tăng tự động hóa. Do người ta cho rằng, robot trí tuệ nhân tạo không phải là đối tượng phải nộp thuế cao, một số hình thức thuế dành cho tự động hoá sẽ được đưa ra để thay thế cho thuế của người lao động.

Ngoài những thách thức kể trên, vấn đề quan trọng mà chúng tôi đề cập, là thách thức pháp lý liên quan đến pháp luật bồi thường thiệt hại đối với các đối tượng thông minh. Luật bồi thường thiệt hại chuyển gánh nặng mất mát từ bên bị thiệt hại sang bên có lỗi hoặc bên phù hợp hơn để chịu gánh nặng mất mát. Thông thường, một bên tìm cách khắc phục thiệt hại bằng cách yêu cầu bồi thường thiệt hại dưới hình thức bồi thường bằng tiền.

Tính chất đa diện của trí tuệ nhân tạo tạo ra thách thức trong lĩnh vực điều chỉnh pháp luật về trách nhiệm bồi thường thiệt hại do các vật thể thông minh gây ra. Khả năng tích lũy kinh nghiệm và tự học hỏi, cũng như khả năng hành động độc lập và đưa ra quyết định riêng, tạo ra những điều kiện cho AI làm phát sinh thiệt hại. Hơn nữa, sự phổ biến của AI trong xã hội có nghĩa là ngày càng nhiều người sử dụng AI, khả năng vi phạm pháp luật càng cao. Sự phát triển của AI và việc sử dụng thực tế AI ngày càng nhiều đòi hỏi phải thay đổi quy định pháp luật, chẳng hạn như cần phải cơ cấu lại hệ thống pháp luật. Nếu trí tuệ nhân tạo (robot trí tuệ nhân tạo) được tạo ra giống như con người là có suy nghĩ và cảm xúc, thì pháp luật phải được thay đổi để mã hóa vai trò của robot trong xã hội[13]. Điều đó có nghĩa là các nhà làm luật phải xem xét khuôn khổ pháp lý hiện có và sửa đổi, bổ sung cho thích ứng với nhu cầu thay đổi của xã hội.

Mặc dù hoạt động của AI chưa được pháp luật quy định cụ thể nhưng chúng ta vẫn phải giải quyết vấn đề trách nhiệm đối với các thiệt hại do hành động của AI gây ra. Theo quy định hiện hành, các thiệt hại gây ra bởi hành động bất hợp pháp của người khác phải được bồi thường. Vấn đề chính là cho đến thời điểm hiện tại, các quy định hiện này không công nhận AI là một chủ thể của pháp luật. Điều này có nghĩa là AI không thể chịu trách nhiệm cá nhân về những thiệt hại mà nó gây ra. Vì vậy, một loạt câu hỏi được đặt ra: ai sẽ phải chịu trách nhiệm cho những thiệt hại do hành động của trí tuệ nhân tạo gây ra? AI có khả năng gây nguy hiểm và có thể gây ra thiệt hại không? AI có thể chịu trách nhiệm cho hành động của mình hay không? Các quy định của pháp luật được sử dụng trong việc xác định các trường hợp bồi thường thiệt hại do AI gây ra là gì?

2. Luật bồi thường thiệt hại - quy tắc áp dụng đối với trách nhiệm pháp lý và an toàn sản phẩm/dịch vụ

Theo học giả Abbott, việc bồi thường thiệt hại của robot dựa trên quan điểm cho rằng máy móc sẽ an toàn hoặc ít nhất là có khả năng an toàn hơn so với con người[14]. Mặc dù có nhiều bằng chứng các vụ tử vong liên quan đến phần mềm xe tự lái Tesla, nhưng nhìn chung, người ta vẫn cho rằng xe tự lái gây ra tai nạn ít hơn so với con người lái xe, có khoảng 94% các vụ tai nạn liên quan đến lỗi của con người[15]. Hơn nữa, lỗi y tế là một trong những nguyên nhân hàng đầu gây tử vong[16]. Do đó, các hệ thống trí tuệ nhân tạo, như Watson của IBM[17], phân tích hồ sơ bệnh án và điều trị cho bệnh nhân không cần phải hoàn thiện để tăng cường sự an toàn thì cũng đã tốt hơn so với con người.

Mặc dù hiện nay, các nhà sản xuất và thiết kế robot luôn tập trung vào việc hoàn thiện hệ thống của họ để có độ tin cậy 100% làm cho vấn đề trách nhiệm không phải là vấn đề đáng phải lo lắng[18]. Tuy nhiên, vẫn có khả năng sảy ra các vấn đề phát sinh liên quan đến độ an toàn trong các hệ thống tự động. Công nghệ robot có thể thất bại do lỗi vô ý hoặc do thiết kế, dẫn đến thiệt hại tài sản, thương tích hoặc tính mạng[19]. Trong trường hợp này, luật trách nhiệm sản phẩm truyền thống sẽ được áp dụng, có nghĩa là nhà sản xuất sẽ phải chịu trách nhiệm do một bộ phận của robot bị trục trặc. Cũng có những trường hợp tính đến lỗi của nhà sản xuất hoặc lỗi của cá nhân khi tiếp quản chiếc xe[20].

Nếu giảm thiểu tai nạn thực tế là một trong những vấn đề trọng tâm cần quan tâm, thì mục đích chính của luật bồi thường thiệt hại là cần điều chỉnh các tiêu chuẩn về trách nhiệm bồi thường trong trường hợp thiệt hại gây ra bởi các vật thể thông minh theo hướng luật khuyến khích đầu tư vào trí tuệ nhân tạo để tăng sự an toàn cho con người. Hầu hết các thương tích mà con người gây ra đều là do bất cẩn. Vì vậy, họ sẽ phải chịu trách nhiệm bồi thường do có những “hành vi không hợp lý”. Khi máy tính gây ra thương tích tương tự thì sẽ áp dụng tiêu chuẩn về trách nhiệm nghiêm ngặt, có nghĩa là không xem xét đến yếu tố lỗi trong việc gây ra thiệt hại. Bên bị thiệt hại không phải chỉ ra lỗi hoặc sự bất cẩn của nhà sản xuất mà chỉ cần chỉ ra sản phẩm có khuyết tật và gây nguy hiểm không hợp lý khi được sử dụng theo cách thức thông thường và có thể dự liệu được. Tuy nhiên, việc yêu cầu nhà sản xuất phải bồi thường vì trách nhiệm nghiêm ngặt như thế này, đồng nghĩa với việc không khuyến khích tự động hóa. Bởi vì, nhà sản xuất hoặc chủ sở hữu phải chịu trách nhiệm về các đối tượng được điều khiển bằng trí tuệ nhân tạo lớn hơn so với sự điều khiển của con người.

Vì trách nhiệm pháp lý đối với sản phẩm là trách nhiệm nghiêm ngặt, không phụ thuộc vào lỗi, trong khi hoạt động của con người được đo lường theo tiêu chuẩn của “một người hợp lý”, có ý kiến cho rằng, để khuyến khích tự động hóa và cải thiện an toàn hơn nữa, cần phải áp dụng biện pháp bồi thường thiệt hại đối với trí tuệ nhân tạo như một con người hơn là một sản phẩm. Do đó, khi tự động hóa và số hóa nhằm cải thiện sự an toàn, các đối tượng thông minh cần được đánh giá theo tiêu chuẩn sơ suất, bất cẩn thay vì tiêu chuẩn trách nhiệm nghiêm ngặt và xác định trách nhiệm đối với thiệt hại lúc này sẽ được so sánh với “một người hợp lý”[21].

Bên cạnh đó, cũng có nhiều ý kiến cổ suý cho việc áp dụng trách nhiệm nghiêm ngặt đối với các vật thể thông minh, yêu cầu mở rộng phạm vi các chủ thể phải chịu trách nhiệm - từ nhà sản xuất, nhà phân phối, người bán, thậm chí cả nhà cung cấp viễn thông. Ví dụ, ở Liên minh châu Âu, Chỉ thị Trách nhiệm sản phẩm (85/374/EEC) không áp dụng đối với hàng hóa vô hình, dịch vụ không đầy đủ, tư vấn bất cẩn, chẩn đoán sai và thông tin sai sót. Tuy nhiên, điều quan trọng là nếu thiệt hại xảy ra do một sản phẩm được sử dụng trong dịch vụ bị lỗi thì nó sẽ vẫn được áp dụng theo Chỉ thị Trách nhiệm sản phẩm[22], quy định kiểm tra trách nhiệm nghiêm ngặt. Do đó, nhiều hành vi của robot sẽ nằm trong phạm vi của Chỉ thị này, bao gồm cả phần mềm được lưu trữ trên phương tiện hữu hình. Điều này có nghĩa là trong trường hợp xe ô tô của người tiêu dùng gây ra tai nạn do phần mềm bị trục trặc, hoặc bệnh nhân sử dụng sai liều lượng phóng xạ mà nguyên nhân là do trục trặc trong phần mềm dành cho người tiêu dùng thì họ có thể đưa ra khiếu nại theo Chỉ thị Trách nhiệm sản phẩm đối với nhà sản xuất phần mềm[23]. Tuy nhiên, khi phần mềm được cung cấp qua Internet (được gọi là phần mềm không nhúng), các khiếm khuyết tiềm ẩn không nằm trong phạm vi của Chỉ thị này và cần có một chỉ thị cụ thể về trách nhiệm của các nhà cung cấp nội dung số.

Thực tế cho thấy, đối tượng thông minh càng tự chủ thì chúng càng ít được coi là công cụ đơn giản trong tay các chủ thể khác[24] và việc quy định nghiêm ngặt quá mức, mong đợi sự hoàn hảo thay vì có thể chấp nhận những hành vi robot có thể không khuyến khích các nhà sản xuất đầu tư tiền vào việc đổi mới, chẳng hạn như xe tự lái, máy bay không người lái và máy tự động[25]. Do đó, việc ban hành các quy định thông minh là rất cần thiết.

Trong khi các đối tượng thông minh đang bắt chước công việc của con người, một câu hỏi cũng được đặt ra là liệu robot có được quyền kiện, bị kiện và cũng được tham gia với tư cách là nhân chứng cho mục đích chứng cứ hay không? Hiện tại không thể kiện một robot vì chúng được coi là tài sản. Các đối tượng thông minh không có tư cách chủ thể pháp lý và chưa được sửa đổi để có thể kiện hoặc bị kiện. Nếu robot gây hại, bên bị thương phải kiện chủ nhân của nó. Tuy nhiên, so sánh robot với các công ty, các công ty cũng không được coi là các thực thể pháp lý riêng biệt với chủ sở hữu là con người trong một thời gian dài trong lịch sử[26]. Tuy nhiên, theo thời gian, các nhà lập pháp đã từ bỏ mô hình coi các công ty chỉ là tài sản và trao cho chúng một tư cách nhân tạo độc lập (pháp nhân) cho phép chúng kiện và bị kiện. Do đó, đối với các robot, nó sẽ cần phải được thiết lập tư cách chủ thể như vậy[27]./.

 

[1]Miller S (2017), Artificial intelligence and its impact on legal technology: to boldly go where no legal department has gone before Thompson Reuters; https://legal.thomsonreuters.com/en/insights/articles/ai-and-its-impact-on-legal-technology.

[2]Xem https://viettimes.vn/tri-tue-nhan-tao-va-nhung-van-de-dat-ra-voi-phap-luat-va-quyen-con-nguoi-355220. html, truy cập ngày 13/2/2020.

[3]Xem http://www.haiphong.gov.vn:8888/PortalFolders/ImageUploads/SKHCN/12/Cong%20nghiep%204.0/ CMCN.pdf, truy cập ngày 15/3/2020.

[4]Robinson WK (2015b) Patent law challenges for the internet of things. Wake For J Bus Intellect Prop Law 15(4), p. 658.

[5]Robinson WK (2015a), Economic theory, divided infringement and enforcing interactive patents, Fla Law Rev 67, p. 1961.

[6]Bessis N, Dobre C (2014), Big data and internet of things: a roadmap for smart environments, Springer International Publishing Switzerland, Basel; Opresnik D, Taisch M (2015), The value of Big Data in servitization, Int J Prod Econ 165, p.174,https://doi.org/10.1016/j.ijpe.2014.12.036, truy cập ngày 13/2/2020; Opresnik D và các tác giả (2013), Information–the hidden value of servitization, In: Prabhu V, Taisch M, Kiritsis D (eds) Advances in production management systems, sustainable production and service supply chains. Springer, Berlin Heidelberg, pp. 49–56.

[7]Polonetsky J, Tene O (2012), Privacy in the age of big data: a time for big decisions, Stanf Law Rev Online 64, p.63.

[8]Gobble MM (2013), Big data: the next big thing in innovation, Res-Technol Manag 56(1), p.64.

[9]Strawn GO (2012), Scientific research: how many paradigms? EDUCAUSE Rev 47(3), p. 26.

[10]Brkan M (2015), Data protection and european private international law, SSRN Scholarly Paper ID 2631116. Social Science Research Network, Rochester; Lynskey O (2014), Deconstructing data protection: the ‘added-value’ of a right to data protection in the EU legal order, Int Comp Law Q 63(03), pp. 569–597.

[11]Prahalad CK, Ramaswamy V (2004), ‘Co‐creating unique value with customers’, Strategy Leadersh 32(3), pp. 4–9;  https://doi.org/10.1108/10878570410699249, truy cập ngày 15/2/2020.

[12]Mäenpää R, Korhonen SJJ (2015), Digitalization in retail: the impact on competition, In: Colin và các tác giả (ed.) Vol. 7. Transition: IT Leadership in Transition, Aalto University. Helsinki, pp. 89–102.

 

[13] Richard C. Sherman (1998), ‘The Surge of Artificial Intelligence: Time To Re-examine Ourselves, Implications: Why Create Artificial Intelligence?’, http://www.units.muohio.edu/psybersite/ cyberspace/aisurge/ implications.shtml, truy cập ngày 20/2/2020.

[14]Abbott R (2018), The reasonable computer: disrupting the paradigm of tort liability, Geo Wash L Rev 86, p.1.

[15]Singh S (2015), Critical reasons for crashes investigated in the national motor vehicle crash causation survey US Department of Transportation, https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115, truy cập ngày 15/2/2020.

[16]Kohn LT, Corrigan J, Donaldson MS (2000), To err is human: building a safer health system, National Academy Press, Washington, DC, www.nap.edu/catalog/9728.html, truy cập ngày 13/2/2020.

[17]Watson là một chương trình phần mềm trí tuệ nhân tạo do IBM phát triển với mục đích đưa ra lời đáp cho các câu hỏi được nêu lên bằng ngôn ngữ tự nhiên. Chương trình này được đặt tên của nhà sáng lập công ty IBM là Thomas J. Watson, Watson đang được phát triển như một phần của dự án nghiên cứu mang tên DeepQA.

[18]Kirkpatrick K (2013), Legal issues with robots, Commun ACM 56(11), pp. 17–19, https://doi.org/10.1145/2524713.2524720, truy cập ngày 15/2/2020.

[19]Hilgendorf E (2014), Robotik im Kontext von Recht und Moral. Nomos Verlagsges, p.27.

[20]Schellekens M (2015), Self-driving cars and the chilling effect of liability law, Comput Law Secur Rev: Int J Technol Law Pract 31, pp. 506–517; https://doi.org/10.1016/j.clsr.2015.05.012.

[21]Abbott R (2018), The reasonable computer: disrupting the paradigm of tort liability, Geo Wash L Rev 86, p. 1.

[22]Grubb A, Howells GG (2007), The law of product liability, Butterworths, Oxford.

[23]Wuyts D (2014), The product liability directive–more than two decades of defective products in Europe, J Eur Tort Law 5(1), p. 5; https://doi.org/10.1515/jetl-2014-0001, truy cập ngày 15/2/2020.

[24]European Commission (2014), European Commission calls for tough standards to regulate civil drones, Press Release IP-14-384, 8/4/2014, p.59; http://europa.eu/rapid/press-release_IP-14-384_en.htm, truy cập ngày 15/2/2020.

[25]Richards NM, Smart W (2013), How should the law think about robots?, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363, truy cập ngày 16/2/2020; Chopra S, White LF (2011), A legal theory for autonomous artificial agents, University of Michigan Press, Michigan.

[26]Abbott R, Sarch AF (2019), Punishing artificial intelligence: legal fiction or science fiction.

[27]Michalski R (2018), How to sue a robot, Utah Law Rev 2018(5), p. 3.

(Bài viết được đăng tải trên Ấn phẩm Tạp chí Nghiên cứu Lập pháp số 09 (409), tháng 5/2020.)

Nguồn bài viết: http://www.lapphap.vn/

 

Ý kiến bạn đọc
Tham gia ý kiến về bài viết trên
Ý kiến của bạn:
Mã xác nhận:   Gửi