Update translations (#1251)

This commit is contained in:
Discourse Translator Bot 2025-04-08 19:04:39 +02:00 committed by GitHub
parent a2ffe9620a
commit 0e4bf298b1
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194
4 changed files with 335 additions and 1 deletions

View File

@ -703,9 +703,11 @@ de:
main_title: "Discobot Entdeckungen"
regular_results: "Themen"
tell_me_more: "Erzähl mir mehr..."
continue_convo: "Unterhaltung fortsetzen..."
loading_convo: "Unterhaltung wird geladen"
collapse: "Zuklappen"
timed_out: "Discobot konnte keine Entdeckungen finden. Irgendetwas ist schief gelaufen."
user_setting: "Sucherkennungen ermöglichen"
user_setting: "Suchentdeckungen aktivieren"
tooltip:
header: "KI-gestützte Suche"
content: "Natürliche Sprachsuche unterstützt von %{model}"

View File

@ -7,12 +7,22 @@
pl_PL:
admin_js:
admin:
api:
scopes:
descriptions:
discourse_ai:
search: "Umożliwia wyszukiwanie AI"
stream_completion: "Umożliwia strumieniowe uzupełnianie osobowości AI"
site_settings:
categories:
discourse_ai: "Discourse AI"
dashboard:
emotion:
title: "Emocje"
reports:
filters:
group_by:
label: "Grupuj według"
sort_by:
label: "Sortuj po"
tag:
@ -47,6 +57,7 @@ pl_PL:
description: "Liczba postów do pobrania na potrzeby raportu"
tokens_per_post:
label: "Tokeny za post"
description: "Liczba tokenów LLM do użycia na post"
model:
label: "Model"
description: "LLM do wykorzystania do generowania raportów"
@ -76,17 +87,34 @@ pl_PL:
description: "Nadaj priorytet treściom z tej grupy w raporcie"
temperature:
label: "Temperatura"
description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)."
llm_tool_triage:
fields:
model:
label: "Model"
description: "Domyślny model językowy używany do selekcji"
tool:
label: "Narzędzie"
llm_persona_triage:
fields:
persona:
label: "Osobowość"
silent_mode:
label: "Tryb cichy"
description: "W trybie cichym persona otrzyma zawartość, ale nie opublikuje niczego na forum - przydatne podczas przeprowadzania selekcji przy użyciu narzędzi."
llm_triage:
fields:
system_prompt:
label: "Monit systemowy"
description: "Wskazówka, która zostanie użyta do trializacji, upewnij się, że odpowiedziałaś jednym słowem, którego możesz użyć do uruchomienia akcji"
max_post_tokens:
label: "Maksymalna ilość tokenów postu"
description: "Maksymalna liczba tokenów do skanowania przy użyciu selekcji LLM"
stop_sequences:
description: "Poinstruuj model, aby zatrzymał generowanie tokenów po osiągnięciu jednej z tych wartości"
search_for_text:
label: "Wyszukaj tekst"
description: "Jeśli w odpowiedzi LLM pojawi się następujący tekst, wykonaj następujące czynności"
category:
label: "Kategoria"
description: "Kategoria do zastosowania w temacie"
@ -95,78 +123,234 @@ pl_PL:
description: "Tagi do zastosowania w temacie"
canned_reply:
label: "Odpowiedz"
description: "Nieprzetworzony tekst odpowiedzi na post w temacie"
canned_reply_user:
label: "Odpowiedz użytkownikowi"
description: "Nazwa użytkownika, który ma opublikować odpowiedź w szablonie"
hide_topic:
label: "Ukryj temat"
description: "Spraw, by temat nie był widoczny publicznie, jeśli zostanie uruchomiony."
flag_type:
label: "Typ flagi"
description: "Rodzaj flagi, która ma zostać zastosowana do postu (spam lub wysłanie do sprawdzenia)."
flag_post:
label: "Oflaguj post"
description: "Oflaguj post (jako spam lub do sprawdzenia)"
include_personal_messages:
label: "Dołącz osobiste wiadomości"
description: "Skanuj i sortuj również wiadomości prywatne"
reply_persona:
label: "Persona odpowiedzi"
description: "AI Persona użyta do odpowiedzi (musi mieć domyślną wartość LLM), będzie traktowana priorytetowo nad gotową odpowiedzią"
model:
label: "Model"
description: "Model językowy używany do selekcji"
temperature:
label: "Temperatura"
description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)."
discourse_ai:
title: "AI"
modals:
select_option: "Wybierz opcję..."
spam:
short_title: "Spam"
title: "Skonfiguruj obsługę spamu"
select_llm: "Wybierz LLM"
custom_instructions: "Instrukcje niestandardowe"
custom_instructions_help: "Niestandardowe instrukcje specyficzne dla Twojej witryny, aby pomóc sztucznej inteligencji w identyfikacji spamu, np. \"Bądź bardziej agresywny w skanowaniu postów nie w języku angielskim\"."
last_seven_days: "Ostatnie 7 dni"
scanned_count: "Przeskanowane posty"
false_positives: "Nieprawidłowo oznaczony"
false_negatives: "Pominięty spam"
spam_detected: "Wykryto spam"
custom_instructions_placeholder: "Instrukcje dla AI specyficzne dla witryny, aby pomóc w dokładniejszej identyfikacji spamu"
enable: "Włącz"
spam_tip: "Wykrywanie spamu przez sztuczną inteligencję będzie skanować pierwsze 3 posty wszystkich nowych użytkowników w tematach publicznych. Oznaczy je do sprawdzenia i zablokuje użytkowników, jeśli istnieje prawdopodobieństwo, że są spamem."
settings_saved: "Ustawienia zapisane"
spam_description: "Identyfikuje potencjalny spam przy użyciu wybranego LLM i oznacza go dla moderatorów witryny w celu sprawdzenia w kolejce przeglądania."
no_llms: "Brak dostępnych LLM"
test_button: "Test..."
save_button: "Zapisz zmiany"
test_modal:
title: "Test wykrywania spamu"
post_url_label: "Adres URL lub identyfikator posta"
result: "Wynik"
scan_log: "Dziennik skanowania"
run: "Przeprowadź test"
spam: "Spam"
not_spam: "Nie spam"
errors:
scan_not_admin:
action: "Napraw"
resolved: "Błąd został rozwiązany!"
usage:
short_title: "Użycie"
summary: "Podsumowanie"
total_tokens: "Wszystkie tokeny"
tokens_over_time: "Tokeny w czasie"
features_breakdown: "Wykorzystanie według funkcji"
feature: "Funkcja"
usage_count: "Liczba użyć"
model: "Model"
models_breakdown: "Wykorzystanie na model"
users_breakdown: "Wykorzystanie na użytkownika"
all_features: "Wszystkie funkcje"
all_models: "Wszystkie modele"
username: "Nazwa użytkownika"
total_requests: "Razem zapytań"
request_tokens: "Tokeny żądania"
response_tokens: "Tokeny odpowiedzi"
net_request_tokens: "Tokeny żądania sieci"
cached_tokens: "Tokeny buforowane"
cached_request_tokens: "Buforowane tokeny żądań"
no_users: "Nie znaleziono danych użycia użytkownika"
no_models: "Nie znaleziono danych o użyciu modelu"
no_features: "Nie znaleziono danych o użyciu funkcji"
subheader_description: "Tokeny są podstawowymi jednostkami, których LLM używa do rozumienia i generowania tekstu, dane dotyczące użytkowania mogą wpływać na koszty"
stat_tooltips:
total_requests: "Wszystkie prośby kierowane do LLM za pośrednictwem Discourse"
total_tokens: "Wszystkie tokeny używane podczas monitowania LLM"
request_tokens: "Tokeny używane, gdy LLM próbuje zrozumieć, co mówisz"
response_tokens: "Tokeny używane, gdy LLM odpowiada na twój prompt"
cached_tokens: "Wcześniej przetworzone tokeny żądań, które LLM ponownie wykorzystuje w celu optymalizacji wydajności i kosztów."
periods:
last_day: "Ostatnie 24 godziny"
last_week: "Ostatni tydzień"
last_month: "Ostatni miesiąc"
custom: "Niestandardowy..."
ai_persona:
ai_tools: "Narzędzia"
tool_strategies:
all: "Zastosuj do wszystkich odpowiedzi"
back: "Poprzednia"
name: "Nazwa"
edit: "Edytuj"
description: "Opis"
no_llm_selected: "Nie wybrano modelu językowego"
use_parent_llm: "Użyj modelu językowego person"
max_context_posts_help: "Maksymalna liczba postów do wykorzystania jako kontekst dla sztucznej inteligencji podczas odpowiadania użytkownikowi. (domyślnie puste)"
vision_enabled: Wizja włączona
vision_enabled_help: Jeśli jest włączona, sztuczna inteligencja będzie próbowała zrozumieć obrazy publikowane przez użytkowników w temacie, w zależności od używanego modelu wspierającego widzenie. Obsługiwane przez najnowsze modele Anthropic, Google i OpenAI.
vision_max_pixels: Obsługiwany rozmiar obrazu
vision_max_pixel_sizes:
low: Niska jakość - najtańsza (256x256)
medium: Średnia jakość (512x512)
high: Wysoka jakość - najwolniejsza (1024x1024)
tool_details: Pokaż szczegóły narzędzia
tool_details_help: Pokaże użytkownikom końcowym szczegółowe informacje na temat narzędzi uruchomionych przez model językowy.
mentionable: Zezwalaj na wzmianki
user: Użytkownik
create_user: Utwórz użytkownika
create_user_help: Opcjonalnie możesz przypisać użytkownika do tej osoby. Jeśli to zrobisz, sztuczna inteligencja użyje tego użytkownika do odpowiedzi na żądania.
default_llm: Domyślny model językowy
default_llm_help: Domyślny model językowy używany dla tej persony. Wymagane, jeśli chcesz wspomnieć o osobie w postach publicznych.
system_prompt: Prompt systemowy
allow_personal_messages: "Zezwalaj na wiadomości osobiste"
allow_personal_messages_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wysyłać osobiste wiadomości do tej persony."
allow_topic_mentions: "Zezwalaj na wzmianki o temacie"
allow_topic_mentions_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wspominać o tej personie w tematach."
force_default_llm: "Zawsze używaj domyślnego modelu języka"
save: "Zapisz"
saved: "Persona zapisana"
enabled: "Włączona?"
tools: "Włączone narzędzia"
forced_tools: "Narzędzia wymuszone"
allowed_groups: "Dozwolone grupy"
confirm_delete: "Czy na pewno chcesz usunąć tę personę?"
new: "Nowa persona"
no_personas: "Nie utworzyłeś jeszcze żadnych person"
title: "Persony"
short_title: "Persony"
delete: "Usuń"
temperature: "Temperatura"
temperature_help: "Temperatura używana w LLM. Zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnej wartości modelu, zazwyczaj od 0,0 do 2,0)."
priority: "Priorytet"
priority_help: "Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie."
tool_options: "Opcje narzędzi"
rag_conversation_chunks: "Przeszukuj fragmenty konwersacji"
list:
enabled: "Bot AI?"
ai_bot:
title: "Opcje bota AI"
rag:
options:
show_indexing_options: "Pokaż opcje przesyłania"
hide_indexing_options: "Ukryj opcje przesyłania"
uploads:
title: "Pliki"
button: "Dodaj pliki"
filter: "Filtruj przesyłane pliki"
indexed: "Zindeksowano"
indexing: "Indeksowanie"
uploaded: "Gotowe do indeksowania"
uploading: "Przesyłanie..."
remove: "Usuń przesyłanie"
tools:
back: "Poprzednia"
short_title: "Narzędzia"
no_tools: "Nie utworzyłeś jeszcze żadnych narzędzi"
name: "Nazwa"
name_help: "Nazwa pojawi się w interfejsie użytkownika Discourse i będzie krótkim identyfikatorem, którego będziesz używać do znajdowania narzędzia w różnych ustawieniach. Powinna być ona unikatowa (jest wymagana)"
new: "Nowe narzędzie"
tool_name: "Nazwa narzędzia"
tool_name_help: "Nazwa narzędzia jest prezentowana w dużym modelu językowym. Nie jest ona odrębna, ale jest odrębna dla każdej persony. (persona sprawdza poprawność przy zapisywaniu)"
description: "Opis"
description_help: "Jasny opis celu narzędzia dla modelu językowego"
subheader_description: "Narzędzia rozszerzają możliwości botów AI o zdefiniowane przez użytkownika funkcje JavaScript."
summary: "Podsumowanie"
summary_help: "Podsumowanie celu narzędzi wyświetlane użytkownikom końcowym"
script: "Skrypt"
parameters: "Parametry"
save: "Zapisz"
add_parameter: "Dodaj parametr"
parameter_required: "Wymagane"
parameter_enum: "Enum"
parameter_name: "Nazwa parametru"
parameter_description: "Opis parametru"
enum_value: "Wartość enum"
add_enum_value: "Dodaj wartość enum"
edit: "Edytuj"
test: "Przeprowadź test"
delete: "Usuń"
saved: "Narzędzie zapisane"
presets: "Wybierz ustawienie wstępne..."
confirm_delete: "Czy na pewno chcesz usunąć to narzędzie?"
next:
title: "Następna"
test_modal:
title: "Przetestuj narzędzie AI"
run: "Przeprowadź test"
result: "Wynik testu"
llms:
short_title: "LLMs"
no_llms: "Nie ma jeszcze LLM"
new: "Nowy model"
display_name: "Nazwa"
name: "Identyfikator modelu"
provider: "Dostawca"
tokenizer: "Tokenizer"
max_prompt_tokens: "Liczba tokenów dla promptu"
url: "Adres URL usługi hostującej model"
api_key: "Klucz API usługi hostującej model"
enabled_chat_bot: "Zezwól na wybór bota AI"
vision_enabled: "Wizja włączona"
ai_bot_user: "Użytkownik bota AI"
save: "Zapisz"
edit: "Edytuj"
saved: "Model LLM zapisany"
back: "Poprzednia"
confirm_delete: Czy na pewno chcesz usunąć ten model?
delete: Usuń
seeded_warning: "Ten model jest wstępnie skonfigurowany w Twojej witrynie i nie można go edytować."
quotas:
title: "Limity wykorzystania"
add_title: "Utwórz nowy limit"
group: "Grupa"
max_tokens: "Maksymalna liczba tokenów"
max_usages: "Maksymalna liczba użyć"
duration: "Czas trwania"
confirm_delete: "Czy na pewno chcesz usunąć ten limit?"
add: "Dodaj limit"
durations:
hour: "1 godzina"
six_hours: "6 godzin"
@ -174,23 +358,78 @@ pl_PL:
week: "7 dni"
custom: "Niestandardowy..."
hours: "godzin"
max_tokens_help: "Maksymalna liczba tokenów (słów i znaków), które każdy użytkownik w tej grupie może wykorzystać w określonym czasie. Tokeny to jednostki używane przez modele AI do przetwarzania tekstu - w przybliżeniu 1 token = 4 znaki lub 3/4 słowa."
max_tokens_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnego użycia"
max_usages_help: "Maksymalna liczba przypadków, w których każdy użytkownik w tej grupie może użyć modelu AI w określonym czasie. Ten limit jest śledzony dla poszczególnych użytkowników, a nie współdzielony przez grupę."
max_usages_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnej liczby tokenów"
usage:
ai_bot: "Bot AI"
ai_helper: "Pomocnik"
ai_persona: "Persona (%{persona})"
ai_summarization: "Podsumuj"
ai_embeddings_semantic_search: "Wyszukiwanie AI"
ai_spam: "Spam"
model_description:
none: "Ogólne ustawienia, które działają dla większości modeli językowych"
anthropic-claude-3-7-sonnet: "Najbardziej inteligentny model Anthropic"
anthropic-claude-3-5-haiku: "Szybko i ekonomicznie"
anthropic-claude-3-opus: "Doskonale radzi sobie z pisaniem i złożonymi zadaniami"
google-gemini-1-5-pro: "Średniej wielkości model multimodalny zdolny do wykonywania szerokiego zakresu zadań"
google-gemini-1-5-flash: "Lekki, szybki i ekonomiczny z multimodalnym rozumowaniem"
open_ai-gpt-4-turbo: "Model wysokiej inteligencji poprzedniej generacji"
open_ai-gpt-4o: "Model o wysokiej inteligencji do złożonych, wieloetapowych zadań"
open_ai-gpt-4o-mini: "Przystępny cenowo i szybki mały model do lekkich zadań"
open_ai-o1-mini: "Ekonomiczny model rozumowania"
open_ai-o1-preview: "Najbardziej wydajny model rozumowania Open AI (podgląd)"
open_ai-o1: "Najbardziej wydajny model rozumowania Open AI"
open_ai-o3-mini: "Zaawansowany, efektywny kosztowo model rozumowania"
samba_nova-Meta-Llama-3-1-8B-Instruct: "Wydajny, lekki model wielojęzyczny"
samba_nova-Meta-Llama-3-3-70B-Instruct": "Wydajny model wielofunkcyjny"
mistral-mistral-large-latest: "Najpotężniejszy model Mistral"
mistral-pixtral-large-latest: "Najpotężniejszy model Mistral zdolny do widzenia"
preseeded_model_description: "Wstępnie skonfigurowany model open-source wykorzystujący %{model}"
configured:
title: "Skonfigurowane LLM"
preconfigured_llms: "Wybierz swój LLM"
preconfigured:
title_no_llms: "Wybierz szablon, aby rozpocząć"
title: "Nieskonfigurowane szablony LLM"
description: "LLM (Large Language Models) to narzędzia sztucznej inteligencji zoptymalizowane do zadań takich jak podsumowywanie treści, generowanie raportów, automatyzacja interakcji z klientami oraz ułatwianie moderowania i analizowania forów."
fake: "Konfiguracja ręczna"
button: "Skonfiguruj"
next:
title: "Następna"
tests:
title: "Przeprowadź test"
running: "Przeprowadzam test..."
success: "Sukces!"
failure: "Próba nawiązania kontaktu z modelem zwróciła następujący błąd: %{error}"
hints:
max_prompt_tokens: "Maksymalna liczba tokenów dla promptu. Z reguły powinno to być 50% okna kontekstowego modelu."
display_name: "Nazwa używana do odwoływania się do tego modelu w interfejsie Twojej witryny."
name: "Uwzględniamy to w wywołaniu API, aby określić, którego modelu będziemy używać"
enabled_chat_bot: "Jeśli ta opcja jest włączona, użytkownicy mogą wybrać ten model podczas tworzenia wiadomości prywatnych za pomocą bota AI"
providers:
google: "Google"
fake: "Niestandardowe"
provider_fields:
organization: "Opcjonalny identyfikator organizacji OpenAI"
disable_system_prompt: "Wyłącz wiadomość systemową w promptach"
enable_native_tool: "Włącz obsługę natywnych narzędzi"
provider_order: "Kolejność dostawców (lista rozdzielona przecinkami)"
enable_reasoning: "Włącz rozumowanie (dotyczy tylko Sonnet 3.7)"
reasoning_tokens: "Liczba tokenów użytych do wnioskowania"
disable_temperature: "Wyłącz temperaturę (niektóre modele nie obsługują temperatury)"
related_topics:
title: "Powiązane tematy"
pill: "Powiązane"
ai_helper:
title: "Zaproponuj zmiany za pomocą AI"
description: "Wybierz jedną z poniższych opcji, a sztuczna inteligencja zasugeruje Ci nową wersję tekstu."
selection_hint: "Wskazówka: Możesz także zaznaczyć część tekstu przed otwarciem pomocnika, aby przepisać tylko ten fragment."
suggest: "Zasugeruj za pomocą AI"
suggest_errors:
no_suggestions: "Brak dostępnych sugestii"
missing_content: "Wprowadź treść, aby wygenerować sugestie."
context_menu:
trigger: "Zapytaj AI"
@ -199,8 +438,12 @@ pl_PL:
regen: "Spróbuj ponownie"
confirm: "Potwierdź"
discard: "Odrzuć"
changes: "Sugerowane zmiany"
custom_prompt:
title: "Niestandardowy prompt"
placeholder: "Wprowadź niestandardowy monit..."
submit: "Wyślij prompt"
translate_prompt: "Przetłumacz na %{language}"
post_options_menu:
trigger: "Zapytaj AI"
title: "Zapytaj AI"
@ -209,13 +452,22 @@ pl_PL:
copy: "Kopiuj"
copied: "Skopiowane!"
cancel: "Anuluj"
insert_footnote: "Dodaj przypis"
footnote_disabled: "Automatyczne wstawianie wyłączone, kliknij przycisk kopiowania i edytuj ręcznie."
footnote_credits: "Wyjaśnienie przez AI"
fast_edit:
suggest_button: "Zaproponuj edycję"
thumbnail_suggestions:
title: "Sugerowane miniatury"
select: "Wybierz"
selected: "Wybrany"
image_caption:
save_caption: "Zapisz"
automatic_caption_dialog:
prompt: "Ten post zawiera obrazy bez podpisów. Czy chcesz włączyć automatyczne podpisy przy przesyłaniu zdjęć? (Można to później zmienić w preferencjach)."
confirm: "Włącz"
cancel: "Nie pytaj ponownie"
no_content_error: "Najpierw dodaj zawartość, aby wykonać na niej działania AI."
reviewables:
model_used: "Zastosowany model:"
accuracy: "Dokładność:"
@ -223,20 +475,33 @@ pl_PL:
back: "Poprzednia"
save: "Zapisz"
delete: "Usuń"
presets: "Wybierz ustawienie wstępne..."
configure_manually: "Skonfiguruj ręcznie"
edit: "Edytuj"
seeded_warning: "To jest wstępnie skonfigurowane na twojej stronie i nie może być edytowane."
tests:
title: "Przeprowadź test"
running: "Przeprowadzam test..."
success: "Sukces!"
hints:
dimensions_warning: "Po zapisaniu wartość ta nie może zostać zmieniona."
display_name: "Nazwa"
providers:
google: "Google"
fake: "Niestandardowe"
provider_fields:
model_name: "Nazwa modelu"
semantic_search: "Tematy (semantyczne)"
semantic_search_loading: "Wyszukiwanie większej liczby wyników przy użyciu AI"
semantic_search_results:
toggle: "Wyświetlanie %{count} wyników znalezionych przy użyciu AI"
toggle_hidden: "Ukrywanie %{count} wyników znalezionych przy użyciu AI"
none: "Przepraszamy, nasze wyszukiwanie AI nie znalazło pasujących tematów"
unavailable: "Wyniki AI są niedostępne"
ai_generated_result: "Wynik wyszukiwania znaleziony przy użyciu AI"
ai_artifact:
expand_view_label: "Rozszerz widok"
collapse_view_label: "Wyjdź z trybu pełnoekranowego (przycisk ESC lub Wstecz)"
ai_bot:
pm_warning: "Wiadomości wysyłane przez chatboty AI są regularnie monitorowane przez moderatorów."
cancel_streaming: "Zatrzymaj odpowiedź"
@ -268,6 +533,7 @@ pl_PL:
dashboard:
title: "Sentiment"
sentiment_analysis:
share_chart: "Skopiuj link do wykresu"
filter_types:
all: "Wszystkie"
positive: "Pozytywne"
@ -291,11 +557,23 @@ pl_PL:
other: "Ostatnie %{count} godzin"
topic:
title: "Podsumowanie tematu"
close: "Zamknij panel podsumowania"
topic_list_layout:
button:
expanded: "Rozszerzony"
expanded_description: "z podsumowaniami AI"
discobot_discoveries:
main_title: "Odkrycia Discobota"
regular_results: "Tematy"
tell_me_more: "Powiedz mi więcej..."
continue_convo: "Kontynuuj rozmowę..."
loading_convo: "Ładowanie konwersacji"
collapse: "Zwiń"
tooltip:
header: "Wyszukiwanie oparte na AI"
content: "Wyszukiwanie w języku naturalnym obsługiwane przez %{model}"
actions:
info: "Jak to działa?"
disable: "Wyłącz"
review:
types:

View File

@ -293,6 +293,12 @@ de:
web_artifact_creator:
name: "Web-Artefakt-Ersteller"
description: "KI-Bot, spezialisiert auf die Erstellung interaktiver Web-Artefakte"
summarizer:
name: "Zusammenfasser"
description: "Standard-Persona für die KI-Zusammenfassungen"
short_summarizer:
name: "Zusammenfasser (Kurzform)"
description: "Standard-Persona zur Erstellung von KI-Kurzzusammenfassungen für die Elemente der Themenlisten"
topic_not_found: "Zusammenfassung nicht verfügbar, Thema nicht gefunden!"
summarizing: "Thema zusammenfassen"
searching: "Suche nach: „%{query}“"
@ -412,6 +418,10 @@ de:
search_settings:
one: "%{count} Ergebnis für „%{query}“ gefunden"
other: "%{count} Ergebnisse für „%{query}“ gefunden"
discoveries:
continue_conversation:
title: "Entdeckungsunterhaltung: Suche nach %{query}"
raw: "Bei meiner Suche nach %{query} hast du mir die folgenden Informationen gezeigt:\n\n%{context}\n\nLass uns die Unterhaltung fortsetzen."
summarization:
configuration_hint:
one: "Konfiguriere zunächst die Einstellung `%{setting}`."
@ -435,6 +445,7 @@ de:
neutral: "Neutral"
llm:
configuration:
create_llm: "Du musst einen LLM einrichten, bevor du diese Funktion aktivierst"
disable_module_first: "Du musst zuerst %{setting} deaktivieren."
set_llm_first: "Stelle zuerst %{setting} ein"
model_unreachable: "Wir konnten keine Antwort von diesem Modell abrufen. Überprüfe zuerst deine Einstellungen."

View File

@ -6,6 +6,10 @@
pl_PL:
discourse_automation:
ai:
flag_types:
spam: "Oznacz jako spam i ukryj post"
spam_silence: "Oznacz jako spam, ukryj post i wycisz użytkownika"
scriptables:
llm_triage:
title: Oceniaj posty za pomocą sztucznej inteligencji
@ -55,6 +59,13 @@ pl_PL:
ai_embeddings_semantic_search_enabled: "Włącz wyszukiwanie semantyczne na całej stronie."
ai_embeddings_semantic_related_include_closed_topics: "Uwzględnij zamknięte tematy w semantycznych wynikach wyszukiwania"
ai_embeddings_semantic_search_hyde_model: "Model używany do rozwijania słów kluczowych w celu uzyskania lepszych wyników podczas wyszukiwania semantycznego"
ai_summarization_enabled: "Włącz moduł podsumowania tematu."
ai_summarization_model: "Model używany do podsumowania."
ai_custom_summarization_allowed_groups: "Grupy, które mogą tworzyć nowe podsumowania."
ai_pm_summarization_allowed_groups: "Grupy mogą tworzyć i przeglądać podsumowania w wiadomościach prywatnych."
ai_summary_gists_enabled: "Automatycznie generuj krótkie podsumowania najnowszych odpowiedzi w tematach."
ai_summary_gists_allowed_groups: "Grupy mogą przeglądać sedno dyskusji na liście gorących tematów."
ai_summary_backfill_maximum_topics_per_hour: "Liczba podsumowań tematów do uzupełnienia na godzinę."
ai_bot_enabled: "Włącz moduł bota AI."
ai_bot_enable_chat_warning: "Wyświetl ostrzeżenie po zainicjowaniu czatu PW. Można je zastąpić, edytując ciąg tłumaczenia: discourse_ai.ai_bot.pm_warning"
ai_bot_allowed_groups: "Gdy bot GPT uzyska dostęp do PW, odpowie członkom tych grup."
@ -87,12 +98,15 @@ pl_PL:
title: "\U0001F632 Niespodzianka"
discourse_ai:
ai_artifact:
view_source: "Zobacz źródło"
view_changes: "Zobacz zmiany"
change_description: "Zmień opis"
unknown_model: "Nieznany model AI"
ai_helper:
errors:
completion_request_failed: "Coś poszło nie tak podczas próby przedstawienia sugestii. Spróbuj ponownie."
prompts:
translate: Przetłumacz na %{language}
generate_titles: Zaproponuj tytuły tematu
proofread: Popraw tekst
markdown_table: Wygeneruj tabelę Markdown
@ -101,8 +115,19 @@ pl_PL:
illustrate_post: "Zilustruj post"
share_ai:
read_more: "Przeczytaj pełną transkrypcję"
errors:
not_allowed: "Nie masz uprawnień do udostępniania tego tematu"
failed_to_share: "Nie udało się udostępnić konwersacji"
conversation_deleted: "Udostępniona konwersacja została pomyślnie usunięta"
spam_detection:
flag_reason: "Oznaczono jako spam przez <a href='%{url}'>Discourse AI</a>"
silence_reason: "Użytkownik wyciszony automatycznie przez <a href='%{url}'>Discourse AI</a>"
invalid_error_type: "Podano nieprawidłowy typ błędu"
unexpected: "Wystąpił nieoczekiwany błąd"
bot_user_update_failed: "Nie udało się zaktualizować użytkownika bota skanującego spam"
ai_bot:
default_pm_prefix: "[PW bota AI bez tytułu]"
thinking: "Myślenie..."
personas:
cannot_delete_system_persona: "Person systemowych nie można usunąć, zamiast tego wyłącz je."
general:
@ -126,10 +151,15 @@ pl_PL:
dall_e3:
name: "DALL-E 3"
description: "Bot AI specjalizujący się w generowaniu obrazów przy użyciu DALL-E 3"
short_summarizer:
name: "Podsumowanie (forma krótka)"
topic_not_found: "Podsumowanie niedostępne, nie znaleziono tematu!"
summarizing: "Podsumowanie tematu"
searching: "Wyszukiwanie: '%{query}'"
tool_options:
update_artifact:
update_algorithm:
description: "Poproś LLM o pełne zastąpienie lub użyj diff do aktualizacji"
google:
base_query:
name: "Podstawowe zapytanie wyszukiwania"
@ -141,6 +171,7 @@ pl_PL:
name: "Podstawowe zapytanie wyszukiwania"
description: "Podstawowe zapytanie używane podczas wyszukiwania. Przykład: '#pilne' spowoduje dodanie '#pilne' do zapytania wyszukiwania i uwzględnienie tylko tematów z kategorią lub tagiem pilne."
tool_summary:
web_browser: "Przeglądaj sieć"
random_picker: "Losowy selektor"
categories: "Wymień kategorie"
search: "Szukaj"
@ -233,5 +264,17 @@ pl_PL:
disable_module_first: "Najpierw musisz wyłączyć %{setting}."
set_llm_first: "Najpierw ustaw %{setting}"
model_unreachable: "Nie mogliśmy uzyskać odpowiedzi od tego modelu. Sprawdź najpierw swoje ustawienia."
embeddings:
cannot_edit_builtin: "Nie możesz edytować wbudowanego modelu."
configuration:
invalid_config: "Wybrałeś nieprawidłową opcję."
llm_models:
missing_provider_param: "%{param} nie może być pusty"
bedrock_invalid_url: "Wypełnij wszystkie pola, aby korzystać z tego modelu."
errors:
quota_exceeded: "Przekroczyłeś limit dla tego modelu. Spróbuj ponownie za %{relative_time}."
quota_required: "Musisz określić maksymalną liczbę tokenów lub użyć dla tego modelu"
no_query_specified: Parametr zapytania jest wymagany, podaj go.
no_user_for_persona: Określona persona nie ma powiązanego użytkownika.
persona_not_found: Określona persona nie istnieje. Sprawdź parametry persona_name lub persona_id.
prompt_message_length: Wiadomość %{idx} przekracza limit 1000 znaków.