ОЦІНКА ЕФЕКТИВНОСТІ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ЗАДАЧІ ЗАПОВНЕННЯ ГРАФІВ ЗНАНЬ: МЕТОДИ ТА ПЕРСПЕКТИВИ
Ключові слова:
великі мовні моделі (LLM), графи знань (KG), завершення графу знань (KGC), навчання в контексті (ICL), ланцюжок думок (COT), Zero-Shot та One-Shot навчання, автоматизована обробка знаньАнотація
Автоматизація заповнення графів знань (KG) є ключовим завданням у сфері штучного інтелекту, що знаходить застосування в діалогових системах, пошукових механізмах і аналітичних платформах. У цій роботі досліджується ефективність великих мовних моделей (LLM) у завданні завершення графу знань (KGC) за участю трьох моделей: GPT-4o, GPT-3.5-Turbo-0125 та Mixtral-8x7b-Instruct-v0.1. Дослідження охоплює оцінку продуктивності моделей у Zero-Shot та One-Shot сценаріях, а також аналіз впливу різних підходів до формулювання підказок, включаючи навчання в контексті (ICL) та ланцюжок думок (COT). Використано два спеціалізовані набори даних, що містять як явні, так і неявні зв’язки між сутностями, що дозволяє оцінити здатність моделей до логічних висновків. Результати аналізу отримано за допомогою суворої парадигми, яка вимагає точного збігу передбачених трійок з еталонними, та гнучкої, що допускає часткову відповідність із подальшою постобробкою.Результати демонструють, що LLM можуть бути ефективними у завданнях завершення KG, проте їхня продуктивність значною мірою залежить від якості підказок, наявності прикладів та чіткості формату виводу. Деталізовані підказки без прикладів не завжди сприяють покращенню результатів, а Zero-Shot підхід виявляється менш ефективним порівняно з One-Shot методами. Моделі GPT показують вищу узгодженість із заданими інструкціями, тоді як Mixtral-8x7b іноді додає зайвий пояснювальний текст, що ускладнює його інтеграцію у KG. Незважаючи на досягнуті успіхи, LLM стикаються з обмеженнями у дотриманні формату виводу, розпізнаванні неявних зв’язків та залежності від формулювання підказок. Подальші дослідження мають бути спрямовані на оптимізацію підказок, вдосконалення методів навчання та інтеграцію LLM у більш складні системи KG, що дозволить підвищити точність і ефективність автоматизованого поповнення знань.
Посилання
Hogan A., et al. Knowledge Graphs. Synthesis Lectures on Data. Semantics, and Knowledge, Morgan & Claypool Publishers. 2021.
Fill H., Fettke P., Keopke J. Conceptual modeling and large language models: Impressions from first experiments with ChatGPT. Enterpise Modelling & Information Systems Architectures. International Journal of Conceptual Modelling. 2023. № 18(3). pp. 1-15.
Кундос М.Г., Соловей Л.Я. та ін. Ефективність і багатопотоковість паралельних обчислень у системному програмуванні. Таврійський науковий вісник. 2024. № 5. C. 60-64.
Chen H., Liu X., Yin D., Tang J. A survey on dialogue systems: recent advances and new frontiers. ACM SIGKDD Explorations News. 2017. № 19(2). pp. 25-35.
Iga V., Silaghi G. Leveraging BERT for natural language understanding of domain-specific knowledge. 25th International Symposium on Symbolic and Numeric Algorithms for Scientific Computing, 2023, Nancy, France. pp. 210-215.
Pan S., Luo L., Wang Y., Chen C., Wang J., Wu X.: Unifying Large Language Models and knowledge graphs: A roadmap. CoRR abs/2306.08302. 2023. https://doi. org/10.48550/ARXIV.2306.08302
Zhang J., Chen B., Zhang L., Ke X., Ding H. Neural, symbolic and neuralsymbolic reasoning on knowledge graphs. AI Open 2. 2021. pp. 14-35.
Zhu Y., et al. LLMs for knowledge graph construction and reasoning: recent capabilities and future opportunities. CoRR abs/2305.13168. 2023. https://doi. org/10.48550/ARXIV.2305.13168
Santu S., Feng D. TELLeR: A general taxonomy of LLM prompts for benchmarking complex tasks. Findings of the ACL: EMNLP 2023, Singapore. 2023. pp. 14197-14203.
Jiang A.Q., et al. Mixtral of Experts. CoRR abs/2401.04088. 2024. https://doi. org/10.48550/ARXIV.2401.04088
Ji S., Pan S., Cambria E., Marttinen P., Yu P.S. A survey on knowledge graphs: representation, acquisition, and applications. IEEE Trans. Neural Networks Learn. Syst. 2022. № 33(2). pp. 494-514.
Wei X., et al. ChatIE: zero-shot information extraction via chatting with Chat- GPT. CoRR abs/2302.10205. 2023. https://doi.org/10.48550/arxiv.2302.10205
Khorashadizadeh H., Mihindukulasooriya N., Tiwari S., Groppe J. Exploring in-context learning capabilities of foundation models for generating knowledge graphs from text. CEURWorkshop Proceedings. 2023. № 3447, pp. 132-153.
Zhao W., et al. A survey of large language models. CoRR abs/2303.18223. 2023. https://doi.org/10.48550/ARXIV.2303.18223