RESEARCHING VULNERABILITIES IN CHATBOTS WITH LLM (LARGE LANGUAGE MODEL)

Authors

DOI:

https://doi.org/10.18372/2225-5036.29.18069

Keywords:

chatbot, Artificial Intelligence, cybersecurity, vulnerabilities, ChatGPT, LLM, owasp

Abstract

In today's world, artificial intelligence, especially in the field of large language models, is becoming increasingly important, particularly in the form of chatbots. However, along with the rapid development of this technology, the number of potential vulnerabilities is also growing. In this research article, the authors thoroughly investigate the possible vulnerabilities of such chatbots, paying special attention to security aspects, including specific functions, parameters, and interaction with external resources. In addition, the article emphasizes the shortcomings of current testing methods for these applications, which mainly focus on attack scenarios of a potential attacker without considering the full picture of possible threats. Suggestions for improving testing include detailed vulnerability scanning, systematic validation of input data, control of interaction with external resources, and formulation of constructive recommendations for addressing identified vulnerabilities. Given the approaching era of increasingly widespread use of AI, these suggestions are particularly relevant for maintaining a high level of security in chatbots that use large language models and further developing secure practices in this area.

References

“AI and cybersecurity: The future of cyber defence” [Електронний ресурс]. Режим доступу до ресурсу: https: // www.forbes.com / sites / andrewrossow/ 2021 / 06 / 01 / ai-and-cybersecurity-the-future-of-cyber-defense/.

“How to build your private LLM?” [Електронний ресурс]. Режим доступу до ресурсу: https:// www.leewayhertz.com/build-private-llm/.

“OWASP Top 10 – 2021” [Електронний ресурс]. Режим доступу до ресурсу: https://owasp. org/ Top10/.

“OWASP Top 10 for Large Language Model Applications” [Електронний ресурс]. Режим доступу до ресурсу: https: // owasp.org / www-project-top-10-for-large-language-model-applications/.

“The History of Chatbots” [Електронний ресурс]. Режим доступу до ресурсу: https://onlim.com/ en/the-history-of-chatbots/.

“The role of AI in cybersecurity” by John Boitnot [Електронний ресурс]. Режим доступу до ресурсу: https: // venturebeat. com / 2018 / 03 / 31 /the-role-ofai- in-cybersecurity/.

Глорін Себастьян. Конфіденційність і захист даних у ChatGPT та інших чат-ботах зі штучним інтелектом: Стратегії захисту інформації про користувачів. Міжнародний журнал з безпеки та конфіденційності у сфері повсюдних обчислень, 2023, 15(1), c. 14.

Джин Ю. , Єн-Лінь Ч., Ліп П., Чін Су К. Систематичний огляд літератури про інформаційну безпеку в чат-ботах. Криптографія та інформаційна безпека. 2023, 13(11), с. 6355.

“Знайдені вразливості в AI Chatbots” [Електронний ресурс]. Режим доступу до ресурсу: https:// fagenwasanni. com / news / vulnerabilities-found-in-ai-chatbots/87954/.

К’яра Валентина Місіск’я а, Флора Поче б, Крістін Штраус. Чат-боти в клієнтському сервісі: Їх актуальність та вплив на якість обслуговування. Інформатика. 2022, C. 421-428.

Кларк, Дж., Джейкоб, Дж. (2018). ШІ та кібербезпека: загрози та рішення. Журнал кібербезпеки,4(1), С. 1-14.

Опірський І.Р., В.А. Сусукайло, С.І. Василишин. Дослідження можливостей використання чатботів зі штучним інтелектом для дослідження журналів подій. Безпека інформації. 2023. С. 177-183.

Чжан Ю., Чен В., Ян Дж. та Сю В. (2019). Машинне навчання в кібербезпеці. IEEE Access, 7, С. 108700-108707.

Чжан, Х., Хуан, X., і Чжан, Ю. (2019). Дослідження прогресу штучного інтелекту в кібербезпеці. Міжнародний журнал систем обчислювального інтелекту, 12 (1), С. 316-326.

Published

2023-12-25

Issue

Section

Cybersecurity & Critical Information Infrastructure Protection (CIIP)