ChatGPT xuất hiện, liệu có ngập tràn "tiến sĩ AI"?

10/02/2023 06:44
Linh An (thực hiện)
0:00 / 0:00
0:00
GDVN-Mới đây, có nghiên cứu cho thấy ChatGPT có thể viết một bản tóm tắt (abstract) bài báo khoa học, thậm chí soạn cả bài báo khoa học.

LTS: ChatGPT đang được nhận được sự quan tâm của dư luận. Với lĩnh vực giáo dục, người dùng có thể sử dụng phần mềm này để làm bài tập, thậm chí là viết luận văn tốt nghiệp.

Để có thêm góc nhìn về tác động cũng như thách thức của ChatGPT đến lĩnh vực giáo dục, Tạp chí điện tử Giáo dục Việt Nam có cuộc trao đổi với Giáo sư Nguyễn Văn Tuấn, hiện là Giáo sư Xuất sắc và Giám đốc Trung tâm Công nghệ Y tế thuộc Đại học Công nghệ Sydney, Giáo sư y khoa (kiêm nhiệm) của Đại học New South Wales.

Giáo sư Nguyễn Văn Tuấn, hiện là Giáo sư Xuất sắc và Giám đốc Trung tâm Công nghệ Y tế thuộc Đại học Công nghệ Sydney, Giáo sư y khoa (kiêm nhiệm) của Đại học New South Wales.

Giáo sư Nguyễn Văn Tuấn, hiện là Giáo sư Xuất sắc và Giám đốc Trung tâm Công nghệ Y tế thuộc Đại học Công nghệ Sydney, Giáo sư y khoa (kiêm nhiệm) của Đại học New South Wales.

Phóng viên: Nếu để chỉ ra những thách thức mà ChatGPT đưa đến đối với những nhà giáo trong việc dạy học, lên lớp, giảng bài, đặc biệt là trong kiểm tra đánh giá người học thì Giáo sư sẽ đề cập đến những gì?

Giáo sư Nguyễn Văn Tuấn: Nói chung, các thiết chế xã hội thường đi sau sự tiến bộ của công nghệ, và phải tìm cách đối phó với những công nghệ mới. Sự ra đời của ChatGPT và những công cụ tương tự (chatbot) đã đặt ra nhiều vấn đề trong giảng dạy và nghiên cứu khoa học. Trong đó một số vấn đề vẫn chưa có giải pháp hay câu trả lời.

Đối với giảng dạy, các đại học đã có những qui định mang tính đối phó như báo cho các trợ giảng và sinh viên biết về khả năng và hạn chế của ChatGPT. Giảng viên và sinh viên có thể sử dụng nó như là một công cụ trợ giúp chứ không thể thay thế suy nghĩ của con người. Ngoài ra, một số đại học tìm cách hạn chế sinh viên sử dụng ChatGPT qua các biện pháp như thay đổi các ra bài tập, và đồng thời cảnh báo sinh viên về vi phạm đạo đức học thuật khi sử dụng ChatGPT làm bài tập.

Đối với xuất bản khoa học, mới đây, có nghiên cứu cho thấy ChatGPT có thể viết một bản tóm tắt (abstract) bài báo khoa học, thậm chí soạn cả bài báo khoa học, và có vài bài báo liệt kê ChatGPT là một tác giả công trình khoa học! Trước sự phát triển đó, các tập san khoa học phải đề ra qui định mới không cho đề ChatGPT là tác giả một bài báo khoa học. Nhiều nhà xuất bản khoa học chính thống cũng khuyến cáo các nhà khoa học không được sử dụng ChatGPT để soạn bài báo khoa học.

Phóng viên: Vừa qua thông tin ChatGPT trang bị trí tuệ nhân tạo (AI) chỉ mất 23 tiếng để hoàn thành luận văn tốt nghiệp của một sinh viên đại học tại Nga đang dấy lên nhiều hoang mang. Nhiều chuyên gia lo ngại, nếu người học lạm dụng ChatGPT thì rất dễ chúng ta sẽ có một tầng lớp cử nhân AI, thạc sĩ AI, thậm chí tiến sĩ AI tràn ngập giới khoa học. Ông nghĩ sao về điều này?

Giáo sư Nguyễn Văn Tuấn: Rất khó đánh giá ChatGPT tốt ra sao trong trường hợp cụ thể trên vì tôi không biết luận văn đó thuộc cấp nào (cử nhân hay thạc sĩ). Tôi sẽ rất ngạc nhiên nếu ChatGPT có thể viết một luận văn hoàn chỉnh, dù chỉ là cấp cử nhân. Một luận văn hoàn chỉnh đòi hỏi phải có giả thuyết, phương pháp, kết quả thí nghiệm, diễn giải kết quả, và tài liệu tham khảo.

Kinh nghiệm của tôi cho thấy ChatGPT không có khả năng phát biểu một giả thuyết cụ thể, không thể viết phần phương pháp thích hợp, và rất dở trong phần bàn luận. Còn phần tài liệu tham khảo thì ChatGPT sai be bét. Tôi đã thử hỏi ChatGPT về tài liệu tham khảo cho một chủ đề loãng xương, và ChatGPT đưa ra câu trả lời hoàn toàn sai, không chỉ một lần mà nhiều lần. Tất cả câu trả lời của ChatGPT về tài liệu tham khảo đều “bịa” (tức là không có thật).

Do đó, tôi nghĩ ChatGPT sẽ không bao giờ viết một luận văn hoàn chỉnh vì nó không bao giờ thay thế được suy nghĩ của con người. ChatGPT không bao giờ thay thế được cái mà phương Tây gọi là "critical thinking" (tạm hiểu là “tư duy phân tích”).

Viết một bài luận văn về một chủ đề đòi hỏi người viết phải hiểu chủ đề một cách chuyên sâu, chứ không phải chỉ bề mặt như ChatGPT cung cấp. Một ví dụ đơn giản là trước câu hỏi “Loãng xương là gì?” thì ChatGPT cung cấp câu trả lời mang tính phổ thông và chỉ đúng một nửa. Có thể trong tương lai khi thông tin đầy đủ hơn thì ChatGPT sẽ cho ra câu trả lời tốt hơn.

Nhưng ngay cả có thêm thông tin thì chất lượng thông tin là một vấn đề. Thông tin trên mạng hay thậm chí trong thế giới khoa học cũng “thượng vàng hạ cám”, chứ không có giá trị như nhau. Như người trong khoa học hay nói, 'nếu đầu vào là rác thì đầu ra cũng là rác' (garbarge in, garbage out); tương tự, nếu thông tin mà ChatGPT sử dụng có chất lượng thấp thì câu trả lời không thể nào tin cậy được.

Phóng viên: Thêm một vấn đề được đặt ra cấp bách hiện nay là làm sao để chống đạo văn khi người học được sử dụng ChatGPT, thưa ông?

Giáo sư Nguyễn Văn Tuấn: Đây cũng là một thách thức lớn, nhưng không phải là không có cách phòng ngừa. Trong thực tế, đã có vài người sáng chế ra nhu liệu để phát hiện đạo văn từ ChatGPT. Chẳng hạn như một sinh viên báo chí thuộc Đại học Princeton đã tạo ra một ứng dụng có tên là GPTZero có thể phát hiện những câu văn từ ChatGPT. Nhiều người sử dụng GPTZero và đánh giá rằng nó rất hiệu quả.

Đạo văn và ChatGPT là một vấn đề, nhưng vấn đề lớn hơn là kiến thức bị thiên lệch. Bởi vì ChatGPT sử dụng thông tin trên mạng và dùng thủ thuật xác suất để phân định các tình huống khả dĩ, rồi dựa vào đó mà đưa ra câu trả lời có xác suất cao nhất. Điều này có nghĩa là những thông tin được xuất hiện nhiều nhứt trong thế giới mạng thì có xác suất cao trở thành là một phần của câu trả lời do ChatGPT đưa ra.

Những thông tin về lịch sử và xã hội trong thế giới mạng thường thiên lệch, nên ChatGPT thường đưa ra những câu trả lời lệch lạc, một chiều, và đây là điều đáng quan tâm bởi vì nó có thể làm cho kho tàng kiến thức bị thiên lệch. Đó là điều đáng quan tâm.

Phóng viên: Cuối cùng, để không bị ChatGPT “qua mặt” thì theo Giáo sư, người thầy cần thay đổi những gì?

Giáo sư Nguyễn Văn Tuấn: Thực tế, một người bình thường rất khó phân biệt câu văn do con người viết hay do ChatGPT viết nếu không có kiến thức tốt về chuyên ngành. Ví dụ như tôi có thể đánh giá câu “Bone mass is a predictor of osteoporosis” là sai, nhưng người ngoài ngành có thể xem đó là câu văn đúng.

Hay như ChatGPT định nghĩa loãng xương là “một tình trạng y khoa, được định nghĩa bởi xương yếu và dễ vỡ, dẫn đến nguy cơ gãy xương cao hơn” tuy mới đọc qua thì thấy cũng có lý, nhưng đối với người trong chuyên ngành thì câu trả lời này rất ... ngây thơ. Do đó, để ChatGPT không “qua mặt”, người thầy cần phải có kiến thức vững vàng và chuyên sâu.

Phóng viên: Trân trọng cảm ơn Giáo sư Nguyễn Văn Tuấn.

Linh An (thực hiện)