DIỄN VĂN CỦA ĐỨC THÁNH CHA TẠI HỘI NGHỊ THƯỢNG ĐỈNH G7 VỀ TRÍ TUỆ NHÂN TẠO NĂM 2024

17/06/2024
1149


DIỄN VĂN CỦA ĐỨC THÁNH CHA TẠI HỘI NGHỊ THƯỢNG ĐỈNH G7 VỀ TRÍ TUỆ NHÂN TẠO NĂM 2024
 

WHĐ (16.06.2024) – Trong khuôn khổ Hội nghị thượng đỉnh G7 về Trí tuệ nhân tạo được tổ chức tại Borgo Egnazia, Puglia, miền nam Ý, từ ngày 13-15.06, Đức Thánh Cha Phanxicô là vị giáo hoàng đầu tiên tham dự và phát biểu tại diễn đàn G7, vào chiều ngày 14.06.2024.

Được biết, Hội nghị của các vị lãnh đạo khối 7 cường quốc, (G7- Canada, Pháp, Đức, Nhật Bản, Ý, Vương quốc Anh và Hoa Kỳ) được tổ chức theo lời mời của Thủ tướng Ý, bà Giorgia Meloni, với tư cách là Chủ tịch theo lượt của khối. Ngoài ra, Hội nghị lần này còn có sự tham gia đàm phán của một số nguyên thủ quốc gia  khác như Ucraina, Argentina, Kenya, Brazil, Thổ Nhĩ Kỳ, Algeria, v.v…

Sau đây là toàn văn Việt ngữ bài Diễn văn của Đức Thánh Cha:

DIỄN VĂN CỦA ĐỨC THÁNH CHA PHANXICÔ

TẠI HỘI NGHỊ THƯỢNG ĐỈNH G7 VỀ TRÍ TUỆ NHÂN TẠO

Borgo Egnazia (Puglia)

Thứ Sáu, ngày 14 tháng 06 năm 2024

[video và hình]

_____

Một công cụ thú vị và đáng sợ

Kính thưa quý vị,

Hôm nay, tôi ngỏ lời với quý vị, các nhà lãnh đạo của Diễn đàn liên chính phủ G7, về những tác động của trí tuệ nhân tạo đối với tương lai của nhân loại.

Kinh thánh chứng thực rằng Thiên Chúa đã ban Thần Khí của Ngài cho con người để họ trở nên ‘khéo tay, giỏi giang và lành nghề mà làm mọi công việc’ (Xh 35, 31)”[1]. Vì vậy, khoa học và công nghệ đều là sản phẩm phi thường của tiềm năng sáng tạo của con người[2].

Thật vậy, trí tuệ nhân tạo phát sinh chính xác từ việc sử dụng tiềm năng sáng tạo mà Thiên Chúa đã ban cho chúng ta.

Như chúng ta biết, trí tuệ nhân tạo là một công cụ cực kỳ mạnh mẽ, được sử dụng trong nhiều lãnh vực hoạt động của con người: từ y học đến thế giới việc làm; từ văn hóa đến lãnh vực truyền thông; từ giáo dục đến chính trị. Và công bằng mà nói thì việc sử dụng trí tuệ nhân tạo sẽ ngày càng ảnh hưởng đến lối sống, đến các mối tương quan xã hội, và thậm chí đến cả cách chúng ta nhìn nhận căn tính con người của mình[3].

Tuy nhiên, vấn đề về trí tuệ nhân tạo thường được nhận thức một cách mơ hồ: một đàng, trí tuệ nhân tạo thú vị vì những khả năng mà nó mang lại, đàng khác trí tuệ nhân tạo gây ra nỗi lo sợ về những hậu quả mà nó báo trước. Về vấn đề này, có thể nói rằng tất cả chúng ta, mặc dù ở những mức độ khác nhau, đều bị giằng xé bởi 2 cảm xúc: chúng ta rất hào hứng khi tưởng tượng ra những tiến bộ có thể đạt được từ trí tuệ nhân tạo, nhưng đồng thời, chúng ta lại sợ hãi khi nhận ra những nguy hiểm tiềm ẩn trong việc sử dụng nó[4].

Suy cho cùng, chúng ta không thể nghi ngờ rằng sự xuất hiện của trí tuệ nhân tạo đại diện cho một cuộc cách mạng công nghiệp-nhận thức thực sự, sẽ góp phần tạo ra một hệ thống xã hội mới được đặc trưng bởi những biến đổi mang tính thời đại phức tạp. Ví dụ, trí tuệ nhân tạo có thể cho phép dân chủ hóa khả năng tiếp cận kiến thức, sự tiến bộ theo cấp số nhân của nghiên cứu khoa học, và khả năng giao phó những công việc khắt khe và gian khổ cho máy móc. Nhưng đồng thời, trí tuệ nhân tạo có thể mang lại sự bất bình đẳng lớn hơn giữa các quốc gia tiên tiến và các quốc gia đang phát triển, hoặc giữa các tầng lớp xã hội thống trị và các tầng lớp xã hội bị áp bức, do đó tăng nguy cơ là một “nền văn hóa vứt bỏ” được ưa chuộng hơn một “nền văn hóa gặp gỡ”.

Tầm quan trọng của những biến đổi phức tạp này rõ ràng có liên quan đến sự phát triển công nghệ nhanh chóng của chính trí tuệ nhân tạo.

Chính sự tiến bộ công nghệ mạnh mẽ này đã làm cho trí tuệ nhân tạo vừa trở thành một công cụ thú vị và đáng sợ, vừa đòi hỏi sự suy tư phù hợp với thách đố mà nó đưa ra.

Theo hướng này, có lẽ chúng ta có thể khởi đi từ nhận xét rằng trí tuệ nhân tạo trước hết là một công cụ. Và tất nhiên, lợi ích hay tác hại mà nó mang lại sẽ tuỳ thuộc vào việc sử dụng nó.

Điều này chắc chắn là đúng, vì điều này đã xảy ra với mọi công cụ do con người chế tạo ngay từ thời sơ khai.

Khả năng chế tạo công cụ của chúng ta, với số lượng và độ phức tạp, không có thụ tạo có sự sống nào sánh bằng, nói lên điều kiện của con người - kỹ thuật: con người luôn duy trì mối tương quan với môi trường qua trung gian các công cụ mà mình dần dần tạo ra. Không thể tách lịch sử của con người và nền văn minh ra khỏi lịch sử của những công cụ này. Một số người muốn coi tất cả những điều này là một sự hạn chế, một sự thiếu sót trong con người, như thể vì sự thiếu sót này mà con người buộc phải tạo ra công nghệ [5]. Một cái nhìn thận trọng và khách quan thực sự lại cho chúng ta thấy điều ngược lại. Chúng ta trải nghiệm trạng thái của “sự hướng ngoại” đối với bản thể sinh học của mình: Chúng ta là những sinh vật có khuynh hướng hướng về những gì nằm bên ngoài mình, hoàn toàn cởi mở với thế giới bên kia. Thực tế này là khởi nguồn cho sự cởi mở của chúng ta với người khác và với Thiên Chúa, cũng như cho tiềm năng sáng tạo trí tuệ của chúng ta về mặt văn hóa và thẩm mỹ. Cuối cùng, năng lực kỹ thuật của chúng ta cũng bắt nguồn từ thực tế này. Do đó, công nghệ là dấu chỉ cho thấy chúng ta đang hướng tới tương lai.

Tuy nhiên, việc sử dụng các công cụ của chúng ta không phải lúc nào cũng nhằm mục đích tốt đẹp. Ngay cả khi con người cảm thấy bên trong mình một ơn gọi đi tới cõi bên kia, và đến với tri thức, vốn được xem như một khí cụ thiện hảo để phục vụ anh chị em và ngôi nhà chung của chúng ta (x. Hiến chế  Gaudium et Spes, 16), thì điều này không phải lúc nào cũng xảy ra. Hơn nữa, chính nhờ sự tự do triệt để của mình, nhân loại đã không ít lần làm sai mục đích hiện hữu của mình, biến mình thành kẻ thù của chính mình và của hành tinh [6]. Các thiết bị công nghệ có thể chịu chung số phận. Chỉ khi mục đích phục vụ nhân loại của các thiết bị công nghệ được đảm bảo, thì chúng mới thể hiện không chỉ sự cao cả và phẩm giá độc nhất của con người, mà còn cả sứ mạng mà con người đã nhận được đó là “canh tác và gìn giữ” hành tinh và mọi cư dân trên đó (x. St 2,15). Nói về công nghệ là nói về ý nghĩa của con người, và do đó, nói về địa vị riêng biệt của chúng ta với tư cách là những sinh vật sở hữu cả sự tự do lẫn trách nhiệm. Điều này có nghĩa là nói về đạo đức.

Thật vậy, khi tổ tiên chúng ta mài đá lửa để làm dao, họ vừa dùng chúng để cắt da làm quần áo vừa để sát hại lẫn nhau. Điều tương tự cũng có thể xảy ra với các công nghệ tiên tiến hơn khác, chẳng hạn như năng lượng được tạo ra từ sự hợp nhất của các nguyên tử, xảy ra bên trong Mặt trời, có thể được sử dụng để sản xuất năng lượng sạch và tái tạo nhưng cũng có thể dùng để biến hành tinh của chúng ta thành đống tro tàn.

Nhưng trí tuệ nhân tạo là một công cụ thậm chí còn phức tạp hơn. Tôi hầu như có thể nói rằng đó là một công cụ sui generic (riêng biệt). Do đó, trong khi việc sử dụng một công cụ đơn giản (chẳng hạn như con dao) nằm dưới sự kiểm soát của người sử dụng nó và việc sử dụng nó cho mục đích tốt chỉ phụ thuộc vào người đó, thì mặt khác, trí tuệ nhân tạo có thể tự động thích ứng với nhiệm vụ được giao và, nếu được thiết kế theo cách này, nó có thể đưa ra những quyết định độc lập với con người để đạt được mục tiêu đã đề ra [7].

Cần phải luôn nhớ rằng, theo một cách nào đó và với những phương pháp mới này, máy móc có thể tạo ra các lựa chọn thuật toán. Những gì máy làm là đưa ra lựa chọn kỹ thuật trong số nhiều khả năng và dựa trên các tiêu chí được xác định rõ ràng hoặc dựa trên các suy luận thống kê. Trong khi đó, con người không chỉ lựa chọn mà trong thâm tâm, con người còn có khả năng quyết định. Quyết định là một yếu tố mà chúng ta có thể xác định là mang tính chiến lược hơn của sự lựa chọn và cần có sự đánh giá thực tế. Đôi khi, thường là trong nhiệm vụ quản trị khó khăn, chúng ta được kêu gọi đưa ra những quyết định gây hậu quả cho nhiều người. Về vấn đề này, suy tư của con người luôn nói tới sự khôn ngoan, phronesis của triết học Hy Lạp và ít nhất một phần là sự khôn ngoan của Kinh Thánh. Đối diện với sự kỳ diệu của máy móc, dường như có khả năng lựa chọn một cách độc lập, chúng ta phải nhận thức rõ rằng quyền quyết định luôn thuộc về con người, ngay cả khi chúng ta phải đối diện với những khía cạnh kịch tính và cấp bách xảy đến trong cuộc sống. Chúng ta sẽ đẩy nhân loại vào một tương lai vô vọng nếu chúng ta tước đi khả năng đưa ra quyết định về bản thân và cuộc sống của con người, bằng cách khiến họ phải phụ thuộc vào sự lựa chọn của máy móc. Chúng ta cần đảm bảo và bảo vệ một không gian để con người có thể kiểm soát một cách đúng đắn những lựa chọn do các ứng dụng trí tuệ nhân tạo đưa ra: chính phẩm giá con người đang bị đe dọa.

Ngay tại vấn đề này, cho phép tôi nhấn mạnh rằng: trước thảm kịch như thảm kịch xung đột vũ trang, điều cấp bách là phải cân nhắc lại việc phát triển và sử dụng các thiết bị như cái gọi là “vũ khí tự động gây chết người” để cuối cùng là cấm sử dụng chúng. Điều này khởi đi từ một cam kết hiệu quả và cụ thể nhằm đưa ra sự kiểm soát ngày càng phù hợp hơn và quan trọng hơn của con người. Không một cỗ máy nào được phép lựa chọn tước đi mạng sống của con người.

Ngoài ra, cần phải nói thêm rằng việc sử dụng tốt, ít nhất là các dạng trí tuệ nhân tạo tiên tiến, sẽ không hoàn toàn nằm dưới sự kiểm soát của người dùng hoặc lập trình viên, vốn là những người đã xác định mục tiêu ban đầu của các dạng trí tuệ nhân tạo này tại thời điểm chúng được thiết kế. Điều này càng đúng hơn bởi vì rất có thể trong tương lai không xa, các ứng dụng trí tuệ nhân tạo sẽ có thể giao tiếp trực tiếp với nhau để cải thiện hiệu suất của chúng. Và, nếu trong quá khứ, con người đã từng chế tạo những công cụ đơn giản thấy cuộc sống của họ được định hình bởi những công cụ này – con dao giúp họ sống sót trong giá lạnh nhưng cũng phát triển nghệ thuật chiến tranh – thì giờ đây, con người chế tạo ra những công cụ phức tạp, sẽ thấy cuộc sống của mình bị những công cụ phức tạp này định hình thậm chí còn nhiều hơn nữa [8].

Cơ chế căn bản của trí tuệ nhân tạo

Bây giờ tôi xin đề cập ngắn gọn đến sự phức tạp của trí tuệ nhân tạo. Về bản chất, trí tuệ nhân tạo là một công cụ được thiết kế để giải quyết vấn đề. Nó hoạt động thông qua chuỗi logic các phép toán đại số, được thực hiện dựa trên các danh mục dữ liệu. Sau đó, những dữ liệu này được so sánh để khám phá các mối liên hệ, từ đó cải thiện giá trị thống kê của chúng. Điều này diễn ra nhờ một quá trình tự học, dựa trên việc tìm kiếm dữ liệu bổ sung và tự sửa đổi các quy trình tính toán của nó.

Do đó, trí tuệ nhân tạo được thiết kế theo cách này để giải quyết các vấn đề cụ thể. Tuy nhiên, đối với những người sử dụng trí tuệ nhân tạo, thường có một cám dỗ không thể cưỡng lại được là rút ra những suy luận chung, thậm chí mang tính nhân học, từ các giải pháp cụ thể mà trí tuệ nhân tạo đưa ra.

Một ví dụ điển hình về điều này là việc sử dụng các ứng dụng được thiết kế để hỗ trợ các thẩm phán trong việc ra quyết định liên quan đến việc áp dụng biện pháp quản thúc tại gia đối với các tù nhân đang thụ án trong trại giam. Trong trường hợp này, trí tuệ nhân tạo được yêu cầu dự đoán xác suất tái phạm tội của tù nhân. Trí tuệ nhân tạo thực hiện việc này dựa trên các danh mục được xác định trước (loại tội phạm, hành vi trong tù, đánh giá tâm lý, v.v..), từ đó cho phép trí tuệ nhân tạo có quyền truy cập vào các loại dữ liệu liên quan đến đời sống riêng tư của tù nhân (nguồn gốc dân tộc, trình độ học vấn, hạn mức tín dụng, v.v…). Việc sử dụng một phương pháp như vậy – đôi khi có nguy cơ ủy thác cho máy tính quyền quyết định cuối cùng về tương lai của một con người – có thể ngầm dẫn đến sự tham chiếu những thành kiến vốn có trong các loại dữ liệu được trí tuệ nhân tạo sử dụng.

Việc bị xếp vào một nhóm dân tộc nhất định, hoặc đơn giản hơn, là đã phạm một vi phạm nhỏ nhiều năm trước đó (chẳng hạn chưa nộp tiền phạt đậu xe trong khu vực cấm) sẽ thực sự ảnh hưởng đến quyết định có nên cho phép quản thúc phạm nhân tại nhà hay không. Tuy nhiên, trong thực tế, con người luôn phát triển và có khả năng khiến chúng ta ngạc nhiên bởi những hành động của mình. Đây là điều mà máy móc không thể xem xét được.

Cũng cần lưu ý rằng việc sử dụng các ứng dụng tương tự như ứng dụng tôi vừa đề cập sẽ ngày càng được sử dụng thường xuyên hơn do các chương trình trí tuệ nhân tạo sẽ ngày càng được trang bị khả năng tương tác trực tiếp (chatbot) với con người, tổ chức các cuộc đối thoại, và thiết lập mối tương quan thân thiết với họ. Những tương tác này thường có thể mang lại cảm giác dễ chịu và yên tâm vì các ứng dụng trí tuệ nhân tạo này sẽ được thiết kế để học cách phản hồi, theo cách cá nhân hóa, đáp ứng các nhu cầu về thể lý và tâm lý của con người.

Việc quên rằng trí tuệ nhân tạo không phải là một con người khác và nó không thể đề xuất những nguyên tắc chung đôi khi là một sai lầm nghiêm trọng xuất phát từ nhu cầu sâu xa của con người là tìm kiếm một hình thức đồng hành ổn định, hoặc từ một giả định trong tiềm thức, nghĩa là, từ giả định rằng những quan sát thu được qua cơ chế tính toán có đặc tính chắc chắn không thể chối cãi và tính phổ quát không thể nghi ngờ.

Tuy nhiên, giả định này là xa vời, như được minh chứng qua việc kiểm tra những giới hạn nội tại của chính phép tính. Trí tuệ nhân tạo sử dụng các phép tính đại số được thực hiện theo trình tự logic (ví dụ: nếu giá trị của X lớn hơn giá trị của Y thì nhân X với Y; ngược lại thì chia X cho Y). Phương pháp tính toán này – còn được gọi là “thuật toán” (algorithm) – không có tính khách quan cũng như không có tính trung lập [9]. Hơn nữa, vì dựa trên đại số nên trí tuệ nhân tạo chỉ có thể kiểm tra các thực tế được hình thức hóa bằng các thuật ngữ số học [10].

Hơn nữa, chúng ta không được quên rằng các thuật toán được thiết kế để giải quyết những vấn đề hết sức tinh vi, đến độ chính các lập trình viên cũng khó có thể hiểu chính xác cách chúng đạt được kết quả. Xu hướng hướng tới sự tinh vi này có khả năng tăng tốc đáng kể với sự ra đời của máy tính lượng tử, vốn không hoạt động bằng mạch nhị phân (chất bán dẫn hoặc vi mạch) mà tuân theo các định luật vật lý lượng tử rất phức tạp. Mặt khác, việc liên tục đưa vào sử dụng các vi mạch hiệu suất cao ngày càng hiệu quả đã trở thành một trong những nguyên nhân dẫn đến việc sử dụng trí tuệ nhân tạo chiếm ưu thế tại một số ít quốc gia sở hữu nó.

Dù tinh vi hay đơn giản, chất lượng câu trả lời mà các ứng dụng trí tuệ nhân tạo cung cấp cuối cùng đều phụ thuộc vào dữ liệu chúng xử lý và cách chúng được cấu trúc.

Cuối cùng, tôi muốn trình bày một lĩnh vực trong đó thể hiện cách minh nhiên sự phức tạp của cơ chế được gọi là trí tuệ nhân tạo tổng hợp. Không ai nghi ngờ rằng hiện nay đã có sẵn những công cụ tuyệt vời để tiếp cận kiến thức, thậm chí còn cho phép tự học và tự dạy kèm trong vô số lãnh vực. Nhiều người trong chúng ta đã rất ấn tượng trước những ứng dụng có thể truy cập trực tuyến dễ dàng để soạn văn bản hoặc tạo hình ảnh về bất kỳ chủ đề hoặc đề tài nào. Điều này đặc biệt thu hút học sinh khi phải chuẩn bị bài tập nhưng lại lạm dụng chúng một cách quá mức.

Hiện nay, học sinh thường được chuẩn bị tốt hơn và quen với việc sử dụng trí tuệ nhân tạo hơn giáo viên của mình, nhưng họ lại quên rằng cái gọi là trí tuệ nhân tạo tổng hợp, theo nghĩa chặt, không thực sự “có tính sáng tạo”. Thực ra, công việc của loại trí tuệ nhân tạo này là tìm kiếm thông tin trong dữ liệu lớn và tổng hợp các thông tin lại với nhau theo cách được yêu cầu. Trí tuệ nhân tạo không phát triển các phân tích hoặc khái niệm mới mà chỉ lặp lại những gì mà nó tìm thấy, tạo cho những thông tin này một hình thức hấp dẫn. Sau đó, trí tuệ nhân tạo càng tìm thấy một khái niệm hoặc giả thuyết được lặp đi lặp lại thì nó càng coi đó là hợp pháp và có giá trị. Thay vì mang tính “sáng tạo”, trí tuệ nhân tạo chỉ có thể được coi là “sự tăng cường” theo nghĩa là nó sắp xếp lại nội dung hiện có, giúp củng cố nội dung đó mà thường không kiểm tra xem nội dung đó có sai sót hoặc định kiến hay không.

Khi làm như thế, trí tuệ nhân tạo không chỉ có nguy cơ hợp pháp hóa việc truyền bá tin giả và củng cố lợi thế của một nền văn hóa thống trị, mà còn làm suy yếu chính tiến trình giáo dục. Giáo dục, lẽ ra phải cung cấp cho học sinh khả năng suy tư đích thực, thì lại có nguy cơ bị giảm xuống thành sự lặp lại các khái niệm, vốn là những điều ngày càng được cho là không thể chối cãi, chỉ vì chúng thường xuyên được lặp lại [11].

Đặt phẩm giá con người trở lại vị trí trung tâm, dưới ánh sáng của một đề xuất đạo đức chung

Một quan sát tổng quát hơn bây giờ cần được thêm vào những gì chúng ta đã trình bày. Trên thực tế, thời đại đổi mới công nghệ mà chúng ta đang trải qua đi kèm với một tình hình xã hội đặc thù và chưa từng có, trong đó việc tìm kiếm sự đồng thuận về những vấn đề lớn của đời sống xã hội ngày càng khó khăn hơn. Ngay cả trong các cộng đoàn có đặc điểm là có tính liên tục về văn hóa nhất định, các cuộc tranh luận và xung đột nảy lửa vẫn thường xuyên xảy ra, gây khó khăn cho việc đạt được những suy tư và những giải pháp chính trị chung hướng tới việc tìm kiếm thiện ích và công bằng. Như vậy, ngoài sự phức tạp của những quan điểm chính đáng đặc trưng cho gia đình nhân loại, còn xuất hiện một yếu tố dường như đặc trưng cho những trường hợp khác nhau này, đó là sự mất mát, hoặc ít nhất là sự che khuất cảm thức về con người và sự giảm sút rõ rệt ý nghĩa của khái niệm về phẩm giá con người [12]. Thật vậy, dường như giá trị và ý nghĩa sâu xa của một trong những khái niệm cơ bản của phương Tây đang bị mất đi: đó là khái niệm về con người. Vì vậy, trong thời đại mà các ứng dụng trí tuệ nhân tạo đang kiểm tra con người và hành động của con người, thì chính sự yếu kém về đạo đức liên quan đến nhận thức về giá trị và phẩm giá của con người có nguy cơ bị thiệt hại lớn nhất trong việc thực hiện và phát triển các hệ thống này. Thật vậy, chúng ta cần nhớ rằng không có sự đổi mới nào là trung lập. Ra đời có mục đích và trong tác động đối với xã hội loài người, công nghệ luôn thể hiện một dạng trật tự trong các mối tương quan xã hội và một vị thế quyền lực, trong đó cho phép một số người thực hiện những hành động nhất định đồng thời ngăn cản người khác làm như vậy. Theo một cách ít nhiều rõ ràng, chiều kích quyền lực cấu thành này của công nghệ luôn bao gồm thế giới quan của những người đã phát minh và phát triển nó.

Điều này cũng áp dụng cho các ứng dụng trí tuệ nhân tạo. Để các ứng dụng này có thể trở thành công cụ phục vụ cho việc xây dựng điều thiện ích và một tương lai tốt đẹp hơn, chúng phải luôn hướng tới lợi ích của mỗi con người. Chúng phải có “cảm hứng” đạo đức.

Hơn nữa, quyết định có đạo đức là một quyết định không chỉ tính đến kết quả của một hành động mà còn tính đến các giá trị đang bị đe dọa và các nghĩa vụ xuất phát từ những giá trị đó. Đây là lý do tại sao tôi hoan nghênh việc ký kết tại Roma vào năm 2020, Lời kêu gọi của Roma về Đạo đức AI (the Rome Call for AI Ethics) [13],  và sự ủng hộ của Roma dành cho hình thức kiểm duyệt đạo đức đối với các thuật toán và ứng dụng trí tuệ nhân tạo mà tôi gọi là “đạo đức thuật toán” (algor-ethics) [14]. Trong bối cảnh đa nguyên và toàn cầu, trong đó các mức độ nhạy cảm khác nhau và hệ thống phân cấp đa dạng trong bậc thang giá trị cũng được hiển thị, có vẻ khó để tìm được một hệ thống phân cấp giá trị duy nhất. Vả lại, trong phân tích đạo đức, chúng ta cũng có thể sử dụng các loại công cụ khác: tuy nhiên, nếu gặp khó khăn trong việc xác định một tập hợp các giá trị toàn cầu, thì chúng ta có thể tìm ra những nguyên tắc chung để đối diện và giải quyết những tình huống khó xử hoặc xung đột có thể xảy ra trong cuộc sống.

Vì lý do này, Lời kêu gọi của Roma đã ra đời: với thuật ngữ “đạo đức thuật toán”, một loạt nguyên tắc được cô đọng thành một nền tảng toàn cầu và đa nguyên có khả năng tìm kiếm sự hỗ trợ từ các nền văn hóa, tôn giáo, tổ chức quốc tế, và các tập đoàn lớn, vốn là những yếu tố chủ chốt trong sự phát triển này.

Chính trị là cần thiết

Vì thế, chúng ta không thể che giấu rủi ro cụ thể, vốn có trong thiết kế cơ bản của nó, rằng trí tuệ nhân tạo có thể giới hạn thế giới quan của chúng ta đối với những thực tế có thể được biểu thị bằng những con số và được bao bọc trong các danh mục được thiết lập sẵn, do đó loại trừ sự đóng góp của các hình thức sự thật khác và áp đặt các mô hình thống nhất về nhân học, kinh tế xã hội và văn hóa. Khi đó, mô hình công nghệ được thể hiện trong trí tuệ nhân tạo có nguy cơ trở thành một mô hình nguy hiểm hơn nhiều, mà tôi đã gọi là “mô hình kỹ trị[15]. Chúng ta không thể cho phép một công cụ mạnh mẽ và không thể thiếu như trí tuệ nhân tạo củng cố một mô hình như vậy, mà đúng hơn, chúng ta phải biến trí tuệ nhân tạo thành một bức tường chống lại sự mở rộng của mô hình ấy.

Và chính tại đây, hành động chính trị là điều cấp thiết. Thông điệp Fratelli Tutti nhắc nhở chúng ta rằng, “Ngày nay đối với nhiều người, chính trị là một từ mang nghĩa xấu, thường do các việc sai trái, tham nhũng và kém hiệu quả của một số chính trị gia. Lại còn có những toan tính làm suy yếu chính trị, thay thế chính trị bằng kinh tế học hay biến chính trị thành một ý thức hệ nào đó. Tuy nhiên, liệu thế giới chúng ta có thể vận hành mà chẳng cần đến chính trị hay không? Liệu có thể có một tiến trình tăng trưởng hữu hiệu hướng tới tình huynh đệ phổ quát và hòa bình xã hội mà không cần một nền chính trị lành mạnh hay không?”[16].

Câu trả lời của chúng ta cho những câu hỏi này là: Không! Chính trị là cần thiết! Nhân dịp này, tôi muốn nhắc lại rằng “đối diện với nhiều hình thức chính trị nhỏ nhặt tập trung vào lợi ích trước mắt […] ‘tài năng của nhà chính trị đích thực được thể hiện khi, trong những thời điểm khó khăn, người ta hành động trên cơ sở những nguyên tắc cao cả và nghĩ đến công ích lâu dài. Quyền lực chính trị rất khó có thể đảm đương được nhiệm vụ này trong một dự án quốc gia’ (Thông điệp Laudato Si’, 178), và thậm chí còn khó hơn thế trong một dự án chung cho gia đình nhân loại hiện tại và tương lai[17].

Kính thưa quý vị!

Suy tư của tôi về tác động của trí tuệ nhân tạo đối với nhân loại thúc đẩy chúng ta phải cân nhắc tầm quan trọng của “chính trị lành mạnh” để có thể nhìn về tương lai của chúng ta với niềm hy vọng và sự tự tin. Như tôi đã viết trước đây “xã hội toàn cầu đang gặp phải những thiếu sót nghiêm trọng về mặt cơ cấu mà không thể giải quyết được bằng những giải pháp chắp vá hoặc các biện pháp khắc phục nhanh chóng. Cần phải thay đổi nhiều, thông qua sự cải cách căn bản và đổi mới sâu rộng. Chỉ có một nền chính trị lành mạnh, liên quan đến các lãnh vực và kỹ năng đa dạng nhất, mới có khả năng giám sát tiến trình này. Nền kinh tế vốn là một phần không thể thiếu của một dự án chính trị, xã hội, văn hóa và đại chúng hướng tới công ích có thể mở đường cho “những cơ hội khác nhau, điều này không có nghĩa là cản trở khả năng sáng tạo của con người và những lý tưởng tiến bộ của mình, nhưng hướng năng lượng đó theo những cách thế mới” (Thông điệp Laudato Si', 191)”[18].

Đây chính là trường hợp của trí tuệ nhân tạo. Việc sử dụng trí tuệ nhân tạo một cách hữu hiệu tùy thuộc vào mọi người, và chính trị phải tạo ra các điều kiện để việc sử dụng tốt đẹp này trở thành khả thi và mang lại hiệu quả.

Xin cảm ơn.

Nt. Anna Ngọc Diệp, OP

Dòng Đa Minh Thánh Tâm

Chuyển ngữ từ: vatican.va (14. 06. 2024)

_____

[1] Sứ điệp Ngày Hòa bình Thế giới lần thứ 57, ngày 01.01.2024, 1.

[2] Xem sđd.

[3] Xem sđd., 2.

[4] Sự mâu thuẫn này đã được Thánh Giáo hoàng Phaolô VI ghi nhận trong Diễn văn dành cho nhân sự của “Centro Automazione Analisi Linguistica” của Aloysianum, ngày 19.06.1964.

[5] Xem A. Gehlen, L’uomo La sua natura e il suo posto nel mondo, Milan 1983, 43.

[6] Xem Thông điệp Laudato Si’ (24.05.2015), 102-114.

[7] Sứ điệp Ngày Hòa bình Thế giới lần thứ 57, 3.

[8] Những nhận thức sâu sắc của Marshall McLuhan và John M. Culkin đặc biệt liên quan đến hậu quả của việc sử dụng trí tuệ nhân tạo.

[9] Xem Diễn văn dành cho tham dự viên Phiên họp toàn thể của Học viện Giáo hoàng về Sự sống, ngày 28.02.2020.

[10] Xem. Sứ điệp Ngày Hòa bình Thế giới lần thứ 57, 4.

[11] Xem sđd., 3, 7.

[12] Xem Bộ Giáo lý Đức tin, Tuyên bố Dignitas Infinita về Nhân phẩm (ngày 02.04.2024).

[13] Xem Diễn văn dành cho tham dự viên Phiên họp toàn thể của Học viện Giáo hoàng về Sự sống, ngày 28.02.2020.

[14] Xem Diễn văn dành cho tham dự viên Hội nghị về Nhân phẩm Trẻ em trong Thế giới Kỹ thuật số, ngày 14.11.2019; Diễn văn dành cho tham dự viên Phiên họp toàn thể của Học viện Giáo hoàng về Sự sống, ngày 28.02.2020.

[15] Để có lời giải thích sâu rộng hơn, xem Thông điệp Laudato Si’ về Chăm sóc Ngôi nhà chung của chúng ta (24.05.2015).

[16] Thông điệp Fratelli Tutti về tình Huynh đệ và tình Bằng hữu xã hội (ngày 03.10.2020), 176.

[17] Xem sđd., 178.

[18] Xem sđd., 179.