Skip to content

Commit

Permalink
Merge pull request #512 from Snbig/translations/fa-IR
Browse files Browse the repository at this point in the history
🌐 Persian Translation of OWASP Top 10 for LLM 2025
  • Loading branch information
talesh authored Dec 31, 2024
2 parents 53d73e8 + 1edef20 commit 858137c
Show file tree
Hide file tree
Showing 11 changed files with 582 additions and 557 deletions.
55 changes: 33 additions & 22 deletions 2_0_vulns/translations/fa-IR/LLM00_Preface.md
Original file line number Diff line number Diff line change
@@ -1,44 +1,55 @@
## Letter from the Project Leads
## پیامی از رهبران پروژه

The OWASP Top 10 for Large Language Model Applications started in 2023 as a community-driven effort to highlight and address security issues specific to AI applications. Since then, the technology has continued to spread across industries and applications, and so have the associated risks. As LLMs are embedded more deeply in everything from customer interactions to internal operations, developers and security professionals are discovering new vulnerabilities—and ways to counter them.
پروژه «10 آسیب‌پذیری برتر امنیتی OWASP برای برنامه‌های کاربردی مدل‌های زبانی بزرگ (LLM)» در سال ۲۰۲۳ به عنوان یک ابتکار جمعی با هدف شناسایی و رسیدگی به چالش‌های امنیتی خاص برنامه‌های هوش مصنوعی آغاز شد. از آن زمان، شاهد گسترش روزافزون این فناوری در صنایع و کاربردهای متنوعی بوده‌ایم و به موازات آن، ریسک‌های مرتبط نیز افزایش یافته‌اند. با ادغام هر چه بیشتر LLMها در ابعاد مختلف، از تعاملات با مشتریان گرفته تا عملیات داخلی سازمان‌ها، توسعه‌دهندگان و متخصصان امنیت به طور مستمر در حال کشف آسیب‌پذیری‌های جدید و یافتن راه‌کارهایی برای مواجهه با آن‌ها هستند.

The 2023 list was a big success in raising awareness and building a foundation for secure LLM usage, but we've learned even more since then. In this new 2025 version, we’ve worked with a larger, more diverse group of contributors worldwide who have all helped shape this list. The process involved brainstorming sessions, voting, and real-world feedback from professionals in the thick of LLM application security, whether by contributing or refining those entries through feedback. Each voice was critical to making this new release as thorough and practical as possible.
فهرست سال ۲۰۲۳ در افزایش آگاهی و ایجاد زیرساختی برای بهره‌برداری ایمن از LLM بسیار مؤثر واقع شد، اما از آن زمان تاکنون ما به تجربیات و دانش بیشتری دست یافته‌ایم. در نسخه به‌روزرسانی‌شده سال ۲۰۲۵، با گروهی بزرگ‌تر و متشکل از طیف متنوع‌تری از همکاران از سراسر جهان تعامل داشته‌ایم که همگی در تدوین این فهرست مشارکت داشته‌اند. این فرآیند شامل جلسات همفکری، رأی‌گیری و دریافت بازخوردهای عملی از متخصصانی بود که به‌طور مستقیم با مقوله امنیت برنامه‌های کاربردی LLM سروکار دارند؛ چه از طریق مشارکت مستقیم در نگارش موارد و چه از طریق ارائه پیشنهادها و انتقادات سازنده برای بهبود آن‌ها. هر یک از این مشارکت‌ها برای جامعیت و کاربردی‌تر شدن این نسخه جدید نقشی حیاتی ایفا کرده است.

### What’s New in the 2025 Top 10
### تازه‌های فهرست ده آسیب‌پذیری برتر سال ۲۰۲۵

The 2025 list reflects a better understanding of existing risks and introduces critical updates on how LLMs are used in real-world applications today. For instance, **Unbounded Consumption** expands on what was previously Denial of Service to include risks around resource management and unexpected costs—a pressing issue in large-scale LLM deployments.
فهرست سال ۲۰۲۵ نشان‌دهنده درک عمیق‌تری از مخاطرات موجود و ارائه‌دهنده به‌روزرسانی‌های حیاتی در خصوص نحوه به‌کارگیری مدل‌های زبانی بزرگ (LLM) در برنامه‌های کاربردی دنیای واقعی امروز است. به عنوان نمونه، آسیب‌پذیری **Unbounded Consumption** (مصرف بی‌حد و مرز) توسعه‌ای بر مفهوم حملات منع خدمت (Denial of Service) است که اکنون مخاطرات پیرامون مدیریت منابع و هزینه‌های پیش‌بینی‌نشده را نیز در بر می‌گیرد - مسئله‌ای که در استقرارهای LLM در مقیاس بزرگ به چالشی جدی تبدیل شده است.

The **Vector and Embeddings** entry responds to the community’s requests for guidance on securing Retrieval-Augmented Generation (RAG) and other embedding-based methods, now core practices for grounding model outputs.
در پاسخ به درخواست‌های مکرر جامعه کاربران برای ارائه راهنمایی‌های لازم در خصوص تأمین امنیت Retrieval-Augmented Generation (RAG) و دیگر روش‌های مبتنی بر Embedding، مورد **بردارها و بازنمودهای برداری (Vector and Embeddings)** به فهرست اضافه شده است. این روش‌ها اکنون به عنوان رویه‌های اصلی و محوری برای پایه‌گذاری و اعتبارسنجی خروجی‌های مدل‌های زبانی بزرگ محسوب می‌شوند.

We’ve also added **System Prompt Leakage** to address an area with real-world exploits that were highly requested by the community. Many applications assumed prompts were securely isolated, but recent incidents have shown that developers cannot safely assume that information in these prompts remains secret.
همچنین، در راستای پاسخ به درخواست‌های مکرر جامعه‌ی کاربران و به‌منظور رسیدگی به یکی از چالش‌های امنیتی دارای مصادیق واقعی، مورد **نشت پرامپت سیستم (System Prompt Leakage)** را به فهرست افزوده‌ایم. بسیاری از توسعه‌دهندگان در طراحی برنامه‌های کاربردی مبتنی بر مدل‌های زبانی بزرگ، بر این فرض بودند که پرامپت‌های سیستمی به شکلی امن تفکیک شده و از دسترسی غیرمجاز مصون هستند. اما رخدادهای اخیر نشان داده است که نمی‌توان به‌طور قطعی و بدون اتخاذ تدابیر امنیتی لازم، محرمانه ماندن اطلاعات موجود در این پرامپت‌ها را تضمین کرد.

**Excessive Agency** has been expanded, given the increased use of agentic architectures that can give the LLM more autonomy. With LLMs acting as agents or in plug-in settings, unchecked permissions can lead to unintended or risky actions, making this entry more critical than ever.
با توجه به روند فزاینده‌ی به‌کارگیری معماری‌های عامل‌محور (Agentic Architectures) که به مدل‌های زبانی بزرگ (LLM) استقلال عمل بیشتری اعطا می‌کنند، دامنه و اهمیت آسیب‌پذیری **اختیارات بیش از حد (Excessive Agency)** گسترش یافته است. در شرایطی که LLMها به عنوان عامل (Agent) یا در قالب افزونه‌ها (Plugins) ایفای نقش می‌کنند، عدم کنترل دقیق مجوزهای دسترسی می‌تواند به بروز اقدامات ناخواسته و پرمخاطره منجر شود. این امر موجب شده است تا توجه به این آسیب‌پذیری و اتخاذ تدابیر پیشگیرانه در قبال آن، بیش از هر زمان دیگری ضروری و حیاتی باشد.

### Moving Forward
### مسیر پیش رو

Like the technology itself, this list is a product of the open-source community’s insights and experiences. It has been shaped by contributions from developers, data scientists, and security experts across sectors, all committed to building safer AI applications. We’re proud to share this 2025 version with you, and we hope it provides you with the tools and knowledge to secure LLMs effectively.
این فهرست، درست مانند خودِ فناوری هوش مصنوعی، حاصل دانش و تجربیات مشترکِ جامعه‌ی متن‌باز است. شکل‌گیری این فهرست مرهون مشارکت بی‌دریغ توسعه‌دهندگان، متخصصین علوم داده و کارشناسان امنیت از حوزه‌های گوناگون است که همگی در راستای ساخت برنامه‌های کاربردی هوش مصنوعیِ امن‌تر، تلاش می‌کنند. خرسندیم که این نسخه به‌روز شده (۲۰۲۵) را با شما به اشتراک می‌گذاریم و امیدواریم که این فهرست، ابزارها و دانش لازم برای حفاظت مؤثر از مدل‌های زبانی بزرگ (LLM) را در اختیارتان قرار دهد.

Thank you to everyone who helped bring this together and those who continue to use and improve it. We’re grateful to be part of this work with you.
از تمامی عزیزانی که در تدوین این مجموعه یاری رساندند و همچنین از کلیه کسانی که از این فهرست استفاده نموده و در بهبود آن مشارکت می‌جویند، صمیمانه سپاسگزاریم. از اینکه در این مسیر با شما همگام و هم‌قدم هستیم، خرسند و مفتخریم.


###@ Steve Wilson
Project Lead
OWASP Top 10 for Large Language Model Applications
LinkedIn: https://www.linkedin.com/in/wilsonsd/

رهبر پروژه «10 آسیب‌پذیری برتر امنیتی OWASP برای برنامه‌های کاربردی مدل‌های زبانی بزرگ»

لینکدین: https://www.linkedin.com/in/wilsonsd/

###@ Ads Dawson
Technical Lead & Vulnerability Entries Lead
OWASP Top 10 for Large Language Model Applications

مسئول فنی و مسئول تدوین آسیب‌پذیری‌ها

رهبر پروژه «10 آسیب‌پذیری برتر امنیتی OWASP برای برنامه‌های کاربردی مدل‌های زبانی بزرگ»

LinkedIn: https://www.linkedin.com/in/adamdawson0/


### Persian Translation Team
Name
LinkedIn
### تیم ترجمه فارسی
###@ Hamed Salimian

### About this translation
Recognizing the technical and critical nature of the OWASP Top 10 for Large Language Model Applications, we consciously chose to employ only human translators in the creation of this translation. The translators listed above not only have a deep technical knowledge of the original content, but also the fluency required to make this translation a success.
LinkedIn: https://www.linkedin.com/in/hamed-salimian

###@ Arian Gharedaghi

LinkedIn: https://www.linkedin.com/in/arian-gharedaghi

### درباره ترجمه
با توجه به ماهیت فنی و حیاتی OWASP Top 10 برای برنامه‌های مدل زبان بزرگ (LLM)، ما به طور آگاهانه تصمیم گرفتیم که در تهیه این ترجمه تنها از مترجمان انسانی استفاده کنیم. مترجمان ذکرشده در بالا نه تنها دانش فنی عمیقی از محتوای اصلی دارند، بلکه تسلط لازم برای انجام موفقیت‌آمیز این ترجمه را نیز دارا هستند.

###@ Talesh Seeparsan
Translation Lead, OWASP Top 10 for AI Applications LLM

رهبر ترجمه «10 آسیب‌پذیری برتر امنیتی OWASP برای برنامه‌های کاربردی مدل‌های زبانی بزرگ»

LinkedIn: https://www.linkedin.com/in/talesh/
Loading

0 comments on commit 858137c

Please sign in to comment.