ДОСЛІДЖЕННЯ ВРАЗЛИВОСТЕЙ У ЧАТБОТАХ З ВИКОРИСТАННЯМ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ

Автор(и)

  • Піскозуб Андріян Збігнєвич Кафедра захисту інформації Національного університету «Львівська політехніка» https://orcid.org/0000-0002-3582-2835
  • Журавчак Даниїл Юрійович Кафедра захисту інформації Національного університету «Львівська політехніка» https://orcid.org/0000-0003-4989-0203
  • Толкачова Анастасія Юріївна Кафедра захисту інформації Національного університету «Львівська політехніка» https://orcid.org/0000-0002-8196-7963

DOI:

https://doi.org/10.18372/2225-5036.29.18069

Ключові слова:

чатбот, Штучний Інтелект, вразливості, кібербезпека, ChatGPT, LLM, owasp

Анотація

У сучасному світі штучний інтелект, особливо в області великих мовних моделей, набуває все більшого значення, зокрема, у формі чатботів. Але разом із бурхливим розвитком цієї технології зростає і кількість потенційних вразливостей. У цій науковій статті автори ретельно досліджують можливі вразливості таких чатботів, звертаючи особливу увагу на аспекти безпеки, включаючи специфічні функції, параметри та взаємодію з зовнішніми ресурсами. Окрім того, стаття наголошує на недостатніх аспектах сучасних методів тестування цих додатків, які переважно орієнтуються на сценарії атаки потенційного зловмисника, не розглядаючи повну картину можливих загроз. Відіграючи важливу роль, пропозиції щодо покращення тестування включають детальну перевірку коду на вразливості, систематичну валідацію вхідних даних, контроль взаємодії з зовнішніми ресурсами та формулювання конструктивних рекомендацій щодо усунення виявлених вразливостей. Враховуючи наближення ери все більш розповсюдженого застосування ШІ, ці пропозиції є особливо актуальними для підтримки високого рівня безпеки в чатботах, що використовують великі мовні моделі, та подальшого розвитку безпечних практик у цій сфері.

Посилання

“AI and cybersecurity: The future of cyber defence” [Електронний ресурс]. Режим доступу до ресурсу: https: // www.forbes.com / sites / andrewrossow/ 2021 / 06 / 01 / ai-and-cybersecurity-the-future-of-cyber-defense/.

“How to build your private LLM?” [Електронний ресурс]. Режим доступу до ресурсу: https:// www.leewayhertz.com/build-private-llm/.

“OWASP Top 10 – 2021” [Електронний ресурс]. Режим доступу до ресурсу: https://owasp. org/ Top10/.

“OWASP Top 10 for Large Language Model Applications” [Електронний ресурс]. Режим доступу до ресурсу: https: // owasp.org / www-project-top-10-for-large-language-model-applications/.

“The History of Chatbots” [Електронний ресурс]. Режим доступу до ресурсу: https://onlim.com/ en/the-history-of-chatbots/.

“The role of AI in cybersecurity” by John Boitnot [Електронний ресурс]. Режим доступу до ресурсу: https: // venturebeat. com / 2018 / 03 / 31 /the-role-ofai- in-cybersecurity/.

Глорін Себастьян. Конфіденційність і захист даних у ChatGPT та інших чат-ботах зі штучним інтелектом: Стратегії захисту інформації про користувачів. Міжнародний журнал з безпеки та конфіденційності у сфері повсюдних обчислень, 2023, 15(1), c. 14.

Джин Ю. , Єн-Лінь Ч., Ліп П., Чін Су К. Систематичний огляд літератури про інформаційну безпеку в чат-ботах. Криптографія та інформаційна безпека. 2023, 13(11), с. 6355.

“Знайдені вразливості в AI Chatbots” [Електронний ресурс]. Режим доступу до ресурсу: https:// fagenwasanni. com / news / vulnerabilities-found-in-ai-chatbots/87954/.

К’яра Валентина Місіск’я а, Флора Поче б, Крістін Штраус. Чат-боти в клієнтському сервісі: Їх актуальність та вплив на якість обслуговування. Інформатика. 2022, C. 421-428.

Кларк, Дж., Джейкоб, Дж. (2018). ШІ та кібербезпека: загрози та рішення. Журнал кібербезпеки,4(1), С. 1-14.

Опірський І.Р., В.А. Сусукайло, С.І. Василишин. Дослідження можливостей використання чатботів зі штучним інтелектом для дослідження журналів подій. Безпека інформації. 2023. С. 177-183.

Чжан Ю., Чен В., Ян Дж. та Сю В. (2019). Машинне навчання в кібербезпеці. IEEE Access, 7, С. 108700-108707.

Чжан, Х., Хуан, X., і Чжан, Ю. (2019). Дослідження прогресу штучного інтелекту в кібербезпеці. Міжнародний журнал систем обчислювального інтелекту, 12 (1), С. 316-326.

##submission.downloads##

Опубліковано

2023-12-25

Номер

Розділ

Кібербезпека та захист критичної інформаційної інфраструктури