Preview

Научно-технический вестник информационных технологий, механики и оптики

Расширенный поиск

ReflectivePrompt: использование рефлексивной эволюции в алгоритмах автопромптинга

https://doi.org/10.17586/2226-1494-2025-25-6-1134-1141

Аннотация

   Автопромптинг — процесс автоматического подбора оптимизированных промптов к языковым моделям, который набирает свою популярность с быстрым развитием промпт-инжиниринга, обусловленного многочисленными исследованиями в области больших языковых моделей. В работе представлен ReflectivePrompt — новый метод автопромптинга на основе эволюционных алгоритмов, использующий подход рефлексивной эволюции для более точного и расширенного поиска оптимальных промптов. ReflectivePrompt использует операции краткосрочной и долгосрочной рефлексии перед операциями скрещивания и элитарной мутации для повышения качества проводимых ими изменений. Предложенный метод позволяет накапливать знания, полученные на протяжении всей эволюции, и обновлять их на каждой эпохе, исходя из текущей популяции. ReflectivePrompt был протестирован на 33 наборах данных по задачам классификации и генерации текста с использованием больших языковых моделей с открытым доступом: T-lite-instruct-0.1, Gemma3-27b-it. Представленный метод продемонстрировал значительное увеличение (например, 28 % в среднем на бенчмарке Big-Bench-Hard относительно EvoPrompt) по метрикам в сравнении с известными методами в данной области, тем самым показал себя одним из самых эффективных вариантов в рамках автопромптинга на основе эволюционных алгоритмов.

Об авторах

В. Н. Журавлев
Университет ИТМО
Россия

Виктор Николаевич Журавлев, студент

197101; Санкт-Петербург



А. Р. Хайруллин
Университет ИТМО
Россия

Артур Рустамович Хайруллин, студент

197101; Санкт-Петербург



Э. А. Дягин
Университет ИТМО
Россия

Эрнест Александрович Дягин, студент

197101; Санкт-Петербург



А. Н. Ситкина
Университет ИТМО
Россия

Алена Николаевна Ситкина, студент

197101; Санкт-Петербург



Н. И. Кулин
Университет ИТМО
Россия

Никита Игоревич Кулин, аспирант

197101; Санкт-Петербург

sc 57222386134



Список литературы

1. Kadavath S., Conerly T., Askell A., Henighan T., Drain D., Perez E., et al. Language models (mostly) know what they know // arXiv. 2022. arXiv:2207.05221. doi: 10.48550/arXiv.2207.05221

2. Wei J., Bosma M., Zhao V.Y., Guu K., Yu A.W., Lester B., et al. Finetuned language models are zero-shot learners // arXiv. 2021. arXiv:2109.01652. doi: 10.48550/arXiv.2109.01652

3. Liu P., Yuan W., Fu J., Jiang Z., Hayashi H., Neubig G. Pre-train, prompt, and predict: a systematic survey of prompting methods in natural language processing // ACM Computing Surveys. 2023. V. 55. N 9. P. 1–35. doi: 10.1145/3560815

4. Brown T.B., Mann B., Ryder N., Subbiah M., Kaplan J., Dhariwal P., et al. Language models are few-shot learners // arXiv. 2020. arXiv:2005.14165. doi: 10.48550/arXiv.2005.14165

5. Wang N., Peng Z., Que H., Liu J., Zhou W., Wu Y., et al. RoleLLM: benchmarking, eliciting, and enhancing role-playing abilities of large language models // Proc. of the Annual Meeting of the Association for Computational Linguistics. 2024. P. 14743–14777. doi: 10.18653/v1/2024.findings-acl.878

6. Wei J., Wang X., Schuurmans D., Bosma M., Ichter B., Xia F., et al. Chain-of-thought prompting elicits reasoning in large language models // arXiv. 2022. arXiv:2201.11903. doi: 10.48550/arXiv.2201.11903

7. Wang L., Xu W., Lan Y., Hu Z., Lan Y., Lee R.K.-W., Lim E.-P. Plan-and-solve prompting: improving zero-shot chain-of-thought reasoning by large language models // Proc. of the 61<sup>st</sup> Annual Meeting of the Association for Computational Linguistics. 2023. V. 1. P. 2609–2634. doi: 10.18653/v1/2023.acl-long.147

8. Leidinger A., van Rooij R., Shutova E. The language of prompting: What linguistic properties make a prompt successful? // Proc. of the Findings of the Association for Computational Linguistics: EMNLP. 2023. P. 9210–9232. doi: 10.18653/v1/2023.findings-emnlp.618

9. Shin T., Razeghi Y., Logan R.L., Wallace E., Singh S. AutoPrompt: Eliciting knowledge from language models with automatically generated prompts // Proc. of the Conference on Empirical Methods in Natural Language. 2020. P. 4222–4235. doi: 10.18653/v1/2020.emnlp-main.346

10. Kwon M., Kim G., Kim J., Lee H., Kim J. StablePrompt: automatic prompt tuning using reinforcement learning for large language models // arXiv. 2024. arXiv:2410.07652. doi: 10.48550/arXiv.2410.07652

11. Guo Q., Wang R., Guo J., Li B., Song K., Tan X., et al. EvoPrompt: Connecting large language models with evolutionary algorithms yields powerful prompt optimizers // arXiv. 2023. arXiv:2309.08532. doi: 10.48550/arXiv.2309.08532

12. Prasad A., Hase P., Zhou X., Bansal M. GrIPS: gradient-free, edit-based instruction search for prompting large language models // Proc. of the 17<sup>th</sup> Conference of the European Chapter of the Association for Computational Linguistics. 2023. P. 3845–3864. doi: 10.18653/v1/2023.eacl-main.277

13. Schulhoff S., Ilie M., Balepur N., Kahadze K., Liu A., Si C., et al. The prompt report: a systematic survey of prompt engineering techniques // arXiv. 2024. arXiv:2406.06608. doi: 10.48550/arXiv.2406.06608

14. Liu P., Yuan W., Fu J., Jiang Z., Hayashi H., Neubig G. Pre-train, prompt, and predict: a systematic survey of prompting methods in natural language processing // ACM Computing Surveys. 2023. V. 55. N 9. P. 1–35. doi: 10.1145/3560815

15. Li Y.B., Wu K. Spell: semantic prompt evolution based on a LLM // arXiv. 2023. arXiv:2310.01260. doi: 10.48550/arXiv.2310.01260

16. Pan R., Xing S., Diao S., Sun W., Liu X., Shum K., et al. Plum: prompt learning using metaheuristic // arXiv. 2023. arXiv:2311.08364. doi: 10.48550/arXiv.2311.08364

17. Fernando C., Banarse D., Michalewski H., Osindero S., Rocktäschel T. Promptbreeder: self-referential self-improvement via prompt evolution // arXiv. 2023. arXiv:2309.16797. doi: 10.48550/arXiv.2309.16797

18. Eiben A.E., Smith J.E. Introduction to Evolutionary Computing. Springer, 2015. 287 p.

19. Ye H., Wang J., Cao Z., Berto F., Hua C., Kim H., et al. ReEvo: large language models as hyper-heuristics with reflective evolution // arXiv. 2024. arXiv:2402.01145. doi: 10.48550/arXiv.2402.01145

20. Holland J.H. Genetic algorithms // Scientific American. 1992. V. 267. N 1. P. 66–72. doi: 10.1038/scientificamerican0792-66

21. Lipowski A., Lipowska D. Roulette-wheel selection via stochastic acceptance // Physica A: Statistical Mechanics and its Applications. 2012. V. 391. N 6. P. 2193–2196. doi: 10.1016/j.physa.2011.12.004

22. Storn R., Price K. Differential evolution — a simple and efficient heuristic for global optimization over continuous spaces // Journal of Global Optimization. 1997. V. 11. N 4. P. 341–359. doi: 10.1023/a:1008202821328

23. Russell S., Norvig P. Artificial Intelligence: a Modern Approach. Pearson, 2009. 1152 p.

24. Kirkpatrick S., Gelatt C.D., Vecchi M.P. Optimization by simulated annealing // Science. 1983. V. 220. N 4598. P. 671–680. doi: 10.1126/science.220.4598.671

25. Glover F. Future paths for integer programming and links to artificial intelligence // Computers and Operations Research. 1986. V. 13. N 5. P. 533–549. doi: 10.1016/0305-0548(86)90048-1

26. Geem Z.W., Kim J.H., Loganathan G.V. A new heuristic optimization algorithm: harmony search // Simulation. 2001. V. 76. N 2. P. 60–68. doi: 10.1177/003754970107600201

27. Larranaga P. A review on estimation of distribution algorithms // Genetic Algorithms and Evolutionary Computation. 2002. V. 2. P. 57–100. doi: 10.1007/978-1-4615-1539-5_3

28. Ross B.J. A Lamarckian evolution strategy for genetic algorithms // Practical Handbook of Genetic Algorithms. 2019. P. 1–16. doi: 10.1201/9780429128356-1

29. Voudouris C., Tsang E.P., Alsheddy A. Guided local search // International Series in Operations Research & Management Science. 2010. V. 146. P. 321–361. doi: 10.1007/978-1-4419-1665-5_11

30. Dorigo M., Maniezzo V., Colorni A. Ant system: Optimization by a colony of cooperating agents // IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics). 1996. V. 26. N 1. P. 29–41. doi: 10.1109/3477.484436

31. Shibasaka K., Kanazawa K., Yasunaga M. Decoupling-capacitor allocation problem solved by genetic algorithm // Proc. of the IEEE Electrical Design of Advanced Packaging Systems Symposium (EDAPS). 2013. P. 225–228. doi: 10.1109/edaps.2013.6724430

32. Kim H., Kim M., Berto F., Kim J., Park J. DevFormer: a symmetric transformer for context-aware device placement // arXiv. 2022. arXiv:2205.13225. doi: 10.48550/arXiv.2205.13225

33. Gohil A., Tayal M., Sahu T., Sawalpurkar V. Travelling salesman problem: parallel implementations & analysis // arXiv. 2022. arXiv:2205.14352. doi: 10.48550/arXiv.2205.14352

34. Liu M.X., Liu F., Fiannaca A.J., Koo T., Dixon L., Terry M., Cai C.J. “We Need Structured Output”: towards user-centered constraints on large language model output // Proc. of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. 2024. P. 1–9. doi: 10.1145/3613905.3650756

35. Kamath A., Ferret J., Pathak S., Vieillard N., Merhej R., Perrin S., et al. Gemma 3 technical report // arXiv. 2025. arXiv:2503.19786. doi: 10.48550/arXiv.2503.19786

36. Agrawal L.A., Tan S., Soylu D., Ziems N., Khare R., Opsahl-Ong K., et al. GEPA: reflective prompt evolution can outperform reinforcement learning // arXiv. 2025. arXiv:2507.19457. doi: 10.48550/arXiv.2507.19457


Рецензия

Для цитирования:


Журавлев В.Н., Хайруллин А.Р., Дягин Э.А., Ситкина А.Н., Кулин Н.И. ReflectivePrompt: использование рефлексивной эволюции в алгоритмах автопромптинга. Научно-технический вестник информационных технологий, механики и оптики. 2025;25(6):1134-1141. https://doi.org/10.17586/2226-1494-2025-25-6-1134-1141

For citation:


Zhuravlev V.N., Khairullin A.R., Dyagin E.A., Sitkina A.N., Kulin N.I. ReflectivePrompt: Reflective evolution in autoprompting algorithms. Scientific and Technical Journal of Information Technologies, Mechanics and Optics. 2025;25(6):1134-1141. https://doi.org/10.17586/2226-1494-2025-25-6-1134-1141

Просмотров: 53


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2226-1494 (Print)
ISSN 2500-0373 (Online)