Triết Học

AI và Trách nhiệm Đạo đức: Tư tưởng của Hans Jonas

trach nhiem dao duc ai
Theo The Collector
12 views

Sự xuất hiện của các công nghệ Trí tuệ Nhân tạo (AI) mạnh mẽ, được phổ biến rộng rãi cho công chúng (như ChatGPT, Bard, v.v.) đặt ra những câu hỏi quan trọng về tác động của chúng đến đạo đức xã hội. Chúng ta cần xem xét một cách thận trọng việc con người ngày càng có khả năng thay đổi sâu sắc thực tại và nền văn minh. Lấy cảm hứng từ triết lý của Hans Jonas, bài viết này sẽ nêu ra quan điểm của ông về việc cần cân nhắc những hậu quả tiêu cực của công nghệ trước khi đón nhận chúng một cách hân hoan.

Hans Jonas và nhu cầu đạo đức thời đại mới

Hans Jonas 

Hans Jonas (1903-1993) là một triết gia người Đức gốc Do Thái. Ông có cơ hội trở thành học trò của các triết gia lỗi lạc như Martin Heidegger và Edmund Husserl, đồng thời là người bạn thân thiết của nhà lý luận chính trị Hanna Arendt. Năm 1979, ông xuất bản tác phẩm “Nguyên tắc Trách nhiệm: Đi tìm một chuẩn mực đạo đức cho Thời đại Công nghệ”. Trong đó, Jonas lập luận ủng hộ một nguyên tắc đạo đức mới có thể ứng phó với những thách thức do công nghệ mới đặt ra. Ông đã tận mắt chứng kiến thế giới thay đổi nhanh chóng, như Dự án Manhattan (dẫn đến việc sử dụng bom nguyên tử ở Hiroshima và Nagasaki) và sứ mệnh hạ cánh mặt trăng thành công của Mỹ năm 1969.

Đạo đức truyền thống và sự thay đổi của công nghệ

Jonas tin rằng các công nghệ trước đây, dù được xem là mạnh mẽ, cũng không thể ảnh hưởng tới trạng thái nguyên bản của tự nhiên (1985, trang 3). Máy công thành, tháp bao vây, máy bắn đá,… đều không thể gây nguy hại tới Tự nhiên xét trên phạm vi tổng thể. Điều này được phản ánh trong các hệ thống đạo đức chính yếu trong quá khứ. Đối với Jonas, Tự nhiên vốn không phải là đối tượng con người cần có trách nhiệm bảo vệ¹. Hệ quả là, các chuẩn mực đạo đức trước đây chủ yếu tập trung vào mối quan hệ giữa con người với nhau. Hơn nữa, khi đánh giá tính đạo đức của một hành động, tư tưởng đạo đức truyền thống thường tập trung vào hậu quả trước mắt. Vấn đề lập kế hoạch dài hạn chưa cần đặt ra (Jonas, 1985, trang 5).

Triết lý của Jonas đối với công nghệ mới

Theo Jonas, sự ra đời của các công nghệ mới thách thức các khuôn khổ đạo đức hiện tại một cách triệt để. Năng lượng hạt nhân và kỹ thuật chỉnh sửa gen (khi đó còn là triển vọng xa) có thể thay đổi toàn bộ bản chất của Tự nhiên. “Tính tổn thương của Tự nhiên” là yếu tố đặc trưng của những thay đổi này (Jonas, 1985, trang 6). Hậu quả lâu dài của công nghệ càng làm tăng thêm khó khăn trong việc xác định rõ ràng điều gì có thể xảy ra khi chúng được áp dụng. Hans Jonas viết: “Khoảng cách giữa khả năng dự đoán và sức mạnh thực thi tạo ra một vấn đề đạo đức hoàn toàn mới” (1985, trang 8). Chưa bao giờ nhân loại có quyền năng lớn đến vậy, đồng thời cũng chưa bao giờ mù mờ tới thế trước tác động của việc sử dụng quyền năng đó. Đối mặt với những câu hỏi mới, Hans Jonas đề xuất một góc nhìn làm mới về đạo đức và bảo vệ tầm quan trọng một nguyên lý mới: đó là tinh thần trách nhiệm.

Trách nhiệm Cần Thiết: Khi Đạo đức Gặp gỡ Công nghệ

Trước khi đề xướng nguyên tắc mới, Hans Jonas đã nhắc lại cách diễn đạt đầu tiên về “mệnh lệnh tuyệt đối” của Kant: “Hãy hành động theo phương châm mà qua đó, bạn có thể muốn nó trở thành một quy luật phổ quát.” Không đi sâu vào các chi tiết học thuật, công thức này là “quy trình ra quyết định cho việc tranh luận mang tính đạo đức” (Johnson & Adam, 2022). Trực giác của nó là mọi người chỉ nên hành động theo các nguyên tắc có thể được áp dụng rộng rãi mà không dẫn tới mâu thuẫn. Trước khi quyết định về một phương châm, cần phải xem xét liệu mọi người có thể hành động theo cùng một nguyên tắc hay không; nếu mâu thuẫn xảy ra, hành động đó không được phép về mặt đạo đức. Một ví dụ phổ biến là nói dối — nếu mọi người liên tục nói dối, lòng tin trong xã hội sẽ sụp đổ. Theo nghĩa này, mệnh lệnh tuyệt đối không có nội dung cụ thể mà là cách thử nghiệm một phương châm định hướng hành động.

Bây giờ, hãy cùng thử diễn đạt Mệnh lệnh của Hans Jonas: “Hãy hành động sao cho kết quả từ hành động của bạn tương thích với sự tồn tại lâu dài của cuộc sống con người đích thực.” Tác giả cũng chia sẻ một cách diễn đạt phủ định là, “Hãy hành động sao cho hệ quả từ hành động của bạn không phá hủy cơ hội tương lai của một cuộc sống như vậy” (1985, tr. 11).

Trong khi cách diễn đạt của Kant mang tính logic, Hans Jonas đề cập đến tương lai có thể đoán trước như một chiều hướng của trách nhiệm. Mệnh lệnh về trách nhiệm không phải là tìm kiếm mâu thuẫn trong phương châm, mà là kiểm tra mức độ mà cuộc sống con người đích thực có thể phát triển trong tương lai. Điều này có nghĩa là những người hành động có trách nhiệm với các thế hệ người tương lai và môi trường hiện đang dễ bị tổn thương. Jonas lo lắng rằng hành động có thể được thực hiện mà không xem xét loại thế giới chúng ta muốn để lại cho thế hệ mai sau: đó có phải là thế giới nơi cuộc sống đích thực bị đe dọa hoặc không tồn tại?

Ứng dụng Nguyên tắc Trách nhiệm

Chân dung của Rudolf Jaenisch, người tạo ra chuột thí nghiệm biến đổi gen đầu tiên, Sam Ogden, Nguồn: Whitehead Institute

Tất nhiên, điều chúng ta cần suy ngẫm lúc này là Hans Jonas muốn nói gì qua khái niệm ‘bản chất đích thực’? Liệu ông có đang đề cao một viễn cảnh mang tính bản chất luận (essentialism) về nhân loại? Vậy việc bảo vệ sự tồn tại của cuộc sống con người mang ‘bản chất đích thực’ có nghĩa là gì? Trong tư tưởng của ông, điều này bao hàm bất kỳ sự tiến bộ công nghệ nào có khả năng thay đổi bản chất của cuộc sống con người và phẩm giá vốn có của con người. Lấy ví dụ, ý tưởng ‘bất tử’ của phong trào xuyên nhân văn (transhumanist) đi ngược lại tư duy về sinh mệnh và cái chết vốn mang tính căn bản, đồng thời định hình ý nghĩa và cấu trúc của cuộc sống con người (Coyne & Hauskeller, 2019). Tuy vậy, chúng ta có thể tìm thấy nhiều ví dụ thực tế khác với thời đại ngày nay: liệu chúng ta có nên cho phép các vị phụ huynh can thiệp, chỉnh sửa gien để tác động đến thế hệ sau của họ? Việc chỉnh sửa gen nên được dùng để chữa bệnh hay để đối phó với các loài sinh vật xâm lấn? Một lần nữa, điều Jonas nhấn mạnh là bất kì hoạt động nào cũng đều phải gìn giữ được bản chất chân chính của nhân loại.

Jonas cho rằng ngay cả khi một vài kết quả tiềm năng có thể được dự đoán, các nhà khoa học cũng không có quyền để quyết định việc sử dụng những công nghệ có thể thay đổi vĩnh viễn cuộc sống loài người (1985, tr. 11–12). Theo ông, ta cần thận trọng trước những hệ quả không lường trước được từ công nghệ. Chính những kịch bản xấu phải được xem trọng và ưu tiên trong các cuộc thảo luận bởi ta hoàn toàn có thể thất bại theo vô vàn cách khác nhau.

Ông so sánh quá trình tiến hóa của loài người với cơ chế vận hành trong tự nhiên; giới tự nhiên tiến triển chậm rãi, tạo ra những thay đổi nhỏ bé sau một khoảng thời gian dài. Ngược lại, loài người thay đổi đột ngột. Ông viết, “Cỗ máy khổng lồ của công nghệ hiện đại, thiếu kiên nhẫn và hấp tấp, đã nén vô số những bước tiến nhỏ trong thế giới tự nhiên thành một vài bước đi vĩ đại, đồng thời bỏ qua ‘lợi thế an toàn’ đến từ cách làm việc của tự nhiên” (Jonas, 1985, p. 31).

Sự nóng vội của con người có thể dẫn đến việc đặt cược mọi thứ vào lời hứa hẹn về một cuộc sống tốt đẹp hơn. Vì vậy, một hệ quả trong “nguyên tắc trách nhiệm” của ông chính là việc các triết lý ủng hộ công nghệ cực đoan không thể biện minh cho việc đặt cược kiểu “được ăn cả, ngã về không”. Nói cách khác, động cơ thúc đẩy chúng ta sử dụng những công nghệ này mang tính kiêu ngạo nhiều hơn là thiết yếu (1985, p. 36). Do đó, câu hỏi cấp thiết của thời đại là: liệu ta có thể áp dụng nguyên tắc trách nhiệm vào công nghệ trí tuệ nhân tạo hiện tại?

Trí Tuệ Nhân Tạo: Ai sẽ chịu trách nhiệm?

Vào tháng 3 năm 2023, một bức thư ngỏ đăng trên Viện Tương lai Nhân loại (The Future of Life Institute) đã kêu gọi tạm dừng phát triển AI. “AI tiên tiến có thể là một bước ngoặt trong lịch sử Trái Đất và cần được quản lý chặt chẽ với tương xứng nguồn lực và sự thận trọng” – trích từ bức thư. Một câu hỏi đáng sợ xuất hiện: “Liệu chúng ta có nên đánh cược nguy cơ mất kiểm soát nền văn minh nhân loại?”. Bức thư được ký bởi hàng loạt các CEO quyền lực và các học giả nổi tiếng như Elon Musk, Yuval Noah Harari, Steve Wozniak, và Max Tegmark.

Lời cảnh báo tương tự cũng được đưa ra bởi Sam Altman, CEO của dự án ChatGPT đình đám, trong phiên điều trần trước Quốc Hội Mỹ. Ông đề xuất: “Chúng ta phải dành thời gian tìm cách đối mặt các thách thức AI đem lại”.

Thật vậy, cả bức thư ngỏ và lời cảnh báo của Altman đều khiến người ta liên tưởng tới tư tưởng của triết gia Hans Jonas đã đưa ra từ năm 1978 – “Lời tiên đoán về hiểm họa đáng tin cậy hơn lời hứa hẹn hạnh phúc”. Rõ ràng AI, như các mô hình ngôn ngữ quy mô lớn (Large Language Model – LLM), có thể giúp ích rất nhiều cho nhân loại, giống như những gì Bill Gates từng chỉ ra. Nhưng bên cạnh tiềm năng đó, AI cũng mang tới hàng loạt rủi ro đáng sợ. Ta có thể nghĩ tới viễn cảnh AI xóa sổ loài người, nhưng cũng có những nguy cơ gần hơn: mất việc làm vào tay AI, các hệ thống AI chứa định kiến và phân biệt đối xử, hay những vấn đề về an ninh và quyền riêng tư.

Nhiều người, như Mo Gawdat (cựu giám đốc kinh doanh Google X), tin rằng mọi thứ đã quá muộn. Theo ông, “Chúng ta đã trao quá nhiều quyền lực cho những người không gánh vác trách nhiệm tương xứng (…) chúng ta đã ngắt kết nối giữa quyền lực và trách nhiệm.” Điều này giống như lời than thở của Jonas, khi ông thấy khoảng cách giữa dự báo tương lai và khả năng hành động là nguồn cơn của các vấn đề đạo đức mới. Vậy thì có còn cơ hội nào cho trách nhiệm?

Một phần khó khăn đến từ việc ai mới là người thực sự phải chịu trách nhiệm. Lấy ví dụ Dự Án Manhattan với việc chế tạo bom nguyên tử – một số nhà khoa học đầu ngành phải chịu trách nhiệm về hệ quả của việc này. Nhưng trách nhiệm còn lan tỏa rộng hơn. Có trách nhiệm của các chính trị gia – như Tổng thống Roosevelt thời đó, khi ông nhận được bức thư cảnh báo của các nhà khoa học.

Lời Kết

Chúng ta có thể áp dụng cách nghĩ tương tự như với bức thư ngỏ kêu gọi ngừng phát triển AI: sẽ luôn có những kẻ xấu muốn tiếp tục công việc bất chấp mọi thứ. Chính vì thế, ta không nên dừng lại. Nhưng với AI, việc dừng nghiên cứu lại còn phức tạp hơn ta nghĩ. Không như làm giàu uranium, các Mô Hình Ngôn Ngữ Lớn có thể được tạo ra ngay trong chính căn nhà của bất kỳ ai. Vậy nên, mọi người đều có trách nhiệm ở các mức độ khác nhau, từ chính phủ (có thể đánh thuế hoạt động sử dụng AI để bù đắp cho việc làm bị mất), đến những nhà phát triển đơn lẻ (luôn cân nhắc các tác động lâu dài của phần mềm họ tạo ra).

Một câu hỏi thú vị khác là: Liệu Trí Tuệ Nhân Tạo có làm suy yếu sự sống chân thật trong tương lai? Việc có một mối quan hệ tình cảm với AI do một influencer Snapchat tạo ra, liệu có ảnh hưởng đến khả năng ta xây dựng kết nối với một người thực sự? Khó mà nói trước. Nhưng sống trong thành phố, mang smartphone kè kè bên mình, và họp hành Zoom xuyên múi giờ thì “chân thật” hay “tự nhiên” đến mức nào? Trách nhiệm, suy cho cùng, có vẻ như phụ thuộc rất nhiều vào định nghĩa của ta về “chân thật.”

Bất kể thế nào, bài học quan trọng nhất là nhân loại cần ý thức được các hệ quả lâu dài thực sự của trí tuệ nhân tạo. Để kết thúc bằng lời của Hans Jonas, chúng ta nên đứng về phía “ôn hòa và cẩn trọng, về phía ‘hãy cảnh giác!’ và ‘hãy gìn giữ!”‘ (1985, tr. 204).

Đánh giá

BÀI LIÊN QUAN