Năm 2024, công nghệ trí tuệ nhân tạo (AI) đã mở rộng ranh giới khả năng khi các ngành công nghiệp chạy đua tích hợp khả năng của công nghệ AI để tăng năng suất và tự động hóa các nhiệm vụ phức tạp.
Năm 2025, robot hình người được điều khiển bằng công nghệ AI, công nghệ tạo sinh và tự động hóa sẽ định hình lại hoạt động kinh doanh, chăm sóc sức khỏe và an ninh mạng, đồng thời đặt ra những vấn đề về đạo đức
Năm 2024, những tiến bộ của công nghệ AI đã tăng tốc với tốc độ vượt xa những cải tiến công nghệ cao trước đó, tạo tiền đề cho sự gián đoạn lớn hơn nữa ở phía trước. Nhưng với sự tiến bộ nhanh chóng này đi kèm một rủi ro: Nếu không có sự giám sát của con người, những sai lầm của công nghệ AI có thể sẽ to lớn như những đột phá của nó.
Công nghệ AI tạo sinh (generative AI) và agentic AI (1) đang nâng cao khả năng của khách hàng trong việc thu thập nội dung phức tạp trên nhiều phương tiện truyền thông khác nhau, trong khi các công cụ chăm sóc sức khỏe hỗ trợ công nghệ AI đang định hình lại khả năng chẩn đoán – vượt trội hơn bác sĩ là con người trong một số nhiệm vụ nhất định. Những phát triển này báo hiệu một sự chuyển đổi sắp xảy ra trong việc cung cấp dịch vụ chăm sóc sức khỏe, với công nghệ AI sẵn sàng đóng vai trò lớn hơn trong các hoạt động kinh doanh và công nghiệp. (1) Agentic AI: là công nghệ AI có khả năng tự học, tự ra quyết định và hành động độc lập, khác biệt so với AI tạo sinh chỉ tạo nội dung theo lệnh.
Tác giả và nhà đầu tư công nghệ sâu vào các công nghệ theo cấp số nhân như công nghệ AI, công nghệ lượng tử, công nghệ y tế và an ninh mạng, ông Anders Indset đã lưu ý rằng, sức mạnh của công nghệ AI sẽ tạo ra các robot hình người. Khi chúng ta bước vào năm 2025, bối cảnh công nghệ đang phát triển nhanh chóng, với sự chú ý vào các robot hình người.
Ông Anders đã chia sẻ rằng: “Năm 2025 bắt đầu với sự phát triển xung quanh các mô hình ngôn ngữ lớn (LLM – large language models) nhưng sẽ kết thúc với những tiến bộ đột phá trong lĩnh vực robot tự động hình người”.
Vào năm 2024, sự phát triển của robot tăng vọt, với những cải tiến từng có vẻ xa vời giờ đây đã xuất hiện. Ông nhận xét rằng sự ra mắt của những người máy hoàn toàn tự động được mong đợi từ lâu – trước đây chỉ giới hạn trong môi trường công nghiệp – hiện đang đến gần.
Năm 2025 mang đến sự mong đợi về việc áp dụng rộng rãi công nghệ AI trong ngành robot, tương tác giữa con người và robot được cải thiện và sự gia tăng của các mô hình robot như một dịch vụ (RaaS – robotics-as-a-service). Ông Anders đã giải thích rằng, những điều này sẽ giúp các giải pháp robot tiên tiến có thể tiếp cận được với nhiều ngành công nghiệp hơn, mô tả giai đoạn chuyển đổi tiếp theo cho ngành công nghiệp robot.
Ông dự đoán: “Các robot hình người sẽ định hình lại sự tương tác của chúng ta với công nghệ và mở rộng khả năng ứng dụng công nghệ AI trên nhiều lĩnh vực khác nhau”.
Vai trò ngày càng mở rộng của công nghệ AI trong an ninh mạng và an ninh sinh học Ông Alejandro Rivas-Vasquez, Giám đốc toàn cầu về Giám định kỹ thuật số và Ứng phó sự cố tại Tập đoàn NCC Group, cảnh báo rằng công nghệ AI sẽ đóng vai trò ngày càng quan trọng trong chiến tranh không gian mạng. Ông cho biết công nghệ AI và máy học (ML – machine learning) sẽ khiến chiến tranh không gian mạng trở nên nguy hiểm hơn, với thiệt hại ngoài tầm kiểm soát do kết nối siêu tốc.
Các biện pháp phòng thủ an ninh mạng, vốn đã là một công cụ thành công cho các chiến binh kỹ thuật số, sẽ mở rộng ra ngoài việc bảo vệ các hệ thống kỹ thuật số để bảo vệ con người trực tiếp thông qua công nghệ cấy ghép. Giao diện thần kinh, tăng cường sinh học, chip xác thực và cấy ghép y tế tiên tiến sẽ cách mạng hóa tương tác của con người với công nghệ.
Theo bà Bobbie Walker, Cố vấn quản lý tại tập đoàn NCC Group, những đổi mới này cũng sẽ mang đến những rủi ro đáng kể.
Bà Bobbie đã nói rằng: “Tin tặc có thể khai thác giao diện thần kinh để kiểm soát hành động hoặc thao túng nhận thức, dẫn đến thao túng nhận thức và vi phạm quyền tự chủ cá nhân. Việc theo dõi liên tục dữ liệu sức khỏe và hành vi thông qua các thiết bị cấy ghép gây ra những lo ngại đáng kể về quyền riêng tư, với nguy cơ bị các tác nhân sử dụng sai mục đích hoặc giám sát xâm phạm của chính phủ”.
Để giảm thiểu những rủi ro này, các khuôn khổ mới kết nối công nghệ, chăm sóc sức khỏe và các quy định về quyền riêng tư sẽ là điều cần thiết. Bà Bobbie cảnh báo rằng các tiêu chuẩn về “digital bioethics” (tạm dịch là ‘đạo đức sinh học kỹ thuật số’) và các tiêu chuẩn ISO về an ninh mạng sinh học sẽ giúp xác định các biện pháp an toàn nhằm tích hợp công nghệ vào cơ thể con người trong khi giải quyết các vấn đề đạo đức.
Bà Bobbie nói thêm: “Lĩnh vực an ninh mạng sinh học mới nổi sẽ thúc đẩy chúng ta phải xem xét lại ranh giới an ninh mạng, đảm bảo rằng công nghệ tích hợp vào cơ thể chúng ta là an toàn, có đạo đức và bảo vệ được những cá nhân sử dụng nó”.
Theo bà Bobbie, các nghiên cứu ban đầu về giao diện bộ não – máy tính (BCI – brain-computer interfaces) cho thấy các đầu vào đối nghịch có thể đánh lừa các thiết bị này, làm nổi bật khả năng bị lạm dụng. Khi các thiết bị cấy ghép phát triển, rủi ro về chiến tranh không gian mạng do nhà nước bảo trợ và vi phạm quyền riêng tư ngày càng tăng, nhấn mạnh nhu cầu về các biện pháp bảo mật mạnh mẽ và các cân nhắc về đạo đức.
Sao lưu dữ liệu bằng công nghệ AI dẫn đến mối lo ngại về bảo mật Ông Sebastian Straub, kiến trúc sư giải pháp chính tại Công ty N2WS, đã tuyên bố rằng những tiến bộ của công nghệ AI giúp các tổ chức có thể tiếp tục hoạt động tốt hơn sau thảm họa thiên nhiên, mất điện và tấn công mạng. Tự động hóa công nghệ AI sẽ nâng cao hiệu quả hoạt động bằng cách giải quyết những thiếu sót của con người.
Ông giải thích rằng tự động hóa sao lưu do công nghệ AI cung cấp sẽ giảm nhu cầu can thiệp của hành chính xuống gần bằng không. Công nghệ AI sẽ học các mô hình phức tạp về việc sử dụng dữ liệu, các yêu cầu tuân thủ và nhu cầu của tổ chức. Hơn nữa, công nghệ AI sẽ trở thành chuyên gia quản lý dữ liệu chủ động, tự động xác định những gì cần được sao lưu và khi nào, bao gồm việc tuân thủ các tiêu chuẩn như GDPR, HIPAA hoặc PCI DSS.
Nhưng ông Sebastian cảnh báo rằng, khi mức độ thống trị của công nghệ AI này làm thay đổi đáng kể các quy trình phục hồi sau thảm họa, lỗi sẽ xảy ra trong quá trình học. Năm 2025, chúng ta sẽ thấy rằng công nghệ AI không phải là giải pháp hoàn hảo. Việc dựa vào máy móc để tự động hóa quá trình phục hồi sau thảm họa sẽ dẫn đến sai lầm.
Ông Sebastian đã nói rằng: “Sẽ có những vi phạm đáng tiếc về lòng tin và vi phạm quy định khi các doanh nghiệp học được bài học đắt giá rằng con người cần phải tham gia vào quá trình ra quyết định về DR”.
Tác động của công nghệ AI đến sự sáng tạo và giáo dục Đối với nhiều khách hàng sử dụng công nghệ AI, các công cụ giúp cải thiện kỹ năng giao tiếp đã được sử dụng ổn định. ChatGPT và các công cụ viết AI khác sẽ nhấn mạnh giá trị của chữ viết của con người thay vì giải pháp tạm thời cho các nhiệm vụ ngôn ngữ cá nhân.
Sinh viên và người truyền thông sẽ điều chỉnh từ việc yêu cầu các công cụ viết AI tạo ra tác phẩm thay mặt họ sang sở hữu quy trình tạo nội dung từ đầu đến cuối. Họ sẽ tận dụng công nghệ để chỉnh sửa, nâng cao hoặc mở rộng tư duy ban đầu, theo ông Eric Wang, Phó chủ tịch công nghệ AI tại Công ty Turnitin.
Nhìn về tương lai, ông Eric đã chia sẻ rằng, viết sẽ được công nhận là một kỹ năng quan trọng, không chỉ trong các lĩnh vực nghiên cứu tập trung vào viết mà còn trong môi trường học tập, làm việc và sinh hoạt. Sự thay đổi này sẽ biểu hiện dưới dạng nhân bản hóa các lĩnh vực, vai trò và công ty được hỗ trợ bởi công nghệ.
Ông thấy vai trò của công nghệ AI tạo sinh đang thay đổi, với việc sử dụng ở giai đoạn đầu giúp sắp xếp và mở rộng ý tưởng trong khi các giai đoạn sau chỉnh sửa và nâng cao khả năng viết. Đối với các nhà giáo dục, công nghệ AI có thể xác định các lỗ hổng kiến thức ngay từ đầu và sau đó cung cấp tính minh bạch để tạo điều kiện cho sự tham gia của học sinh.
Rủi ro tiềm ẩn của các mô hình hỗ trợ công nghệ AI Theo ông Michael Lieberman, Giám đốc công nghệ và đồng sáng lập Công ty Kusari, công nghệ AI sẽ trở nên phổ biến hơn và khó phát hiện hơn. Mối quan tâm của ông nằm ở các mô hình miễn phí được lưu trữ trên các nền tảng.
Ông Michael đã nói rằng: “Chúng tôi đã thấy những trường hợp một số mô hình trên các nền tảng này được phát hiện là phần mềm độc hại. Tôi dự đoán các cuộc tấn công như vậy sẽ gia tăng, mặc dù chúng có thể sẽ bí mật hơn. Những mô hình độc hại này có thể bao gồm các cửa hậu ẩn hoặc được cố ý đào tạo để hoạt động có hại trong các tình huống cụ thể”.
Ông nhận thấy các cuộc tấn công đầu độc dữ liệu nhằm mục đích thao túng mô hình ngôn ngữ lớn ngày càng phổ biến và cảnh báo rằng hầu hết các tổ chức đều không đào tạo mô hình của riêng mình.
Ông Michael nói tiếp, trích dẫn sự cố phần mềm độc hại Hugging Face làm ví dụ: “Thay vào đó, họ dựa vào các mô hình được đào tạo trước, thường có sẵn miễn phí. Việc thiếu minh bạch về nguồn gốc của các mô hình này khiến những kẻ xấu dễ dàng đưa vào những mô hình có hại”.
Những nỗ lực đầu độc dữ liệu trong tương lai có thể sẽ nhắm vào các công ty lớn như OpenAI, Meta và Google, những công ty có bộ dữ liệu khổng lồ khiến các cuộc tấn công như vậy khó bị phát hiện hơn.
Ông Eric Wang kết luận: “Năm 2025, những tội phạm mạng có khả năng sẽ vượt mặt những người bảo vệ. Những kẻ tấn công có động cơ tài chính, trong khi những người bảo vệ thường phải vật lộn để đảm bảo ngân sách đầy đủ vì bảo mật thường không được coi là động lực thúc đẩy doanh thu. Có thể cần một vụ vi phạm chuỗi cung ứng công nghệ AI đáng kể – tương tự như sự cố SolarWinds Sunburst – để thúc đẩy ngành công nghiệp này chú trọng đến các mối đe dọa”.
Để xem các tin bài khác về “Trí tuệ nhân tạo”, hãy nhấn vào đây.
Nguồn: TechNewsWorld