diff --git a/config/locales/client.de.yml b/config/locales/client.de.yml
index c8b05f53..c0904483 100644
--- a/config/locales/client.de.yml
+++ b/config/locales/client.de.yml
@@ -703,9 +703,11 @@ de:
main_title: "Discobot Entdeckungen"
regular_results: "Themen"
tell_me_more: "Erzähl mir mehr..."
+ continue_convo: "Unterhaltung fortsetzen..."
+ loading_convo: "Unterhaltung wird geladen"
collapse: "Zuklappen"
timed_out: "Discobot konnte keine Entdeckungen finden. Irgendetwas ist schief gelaufen."
- user_setting: "Sucherkennungen ermöglichen"
+ user_setting: "Suchentdeckungen aktivieren"
tooltip:
header: "KI-gestützte Suche"
content: "Natürliche Sprachsuche unterstützt von %{model}"
diff --git a/config/locales/client.pl_PL.yml b/config/locales/client.pl_PL.yml
index 38186ca0..11ee5b30 100644
--- a/config/locales/client.pl_PL.yml
+++ b/config/locales/client.pl_PL.yml
@@ -7,12 +7,22 @@
pl_PL:
admin_js:
admin:
+ api:
+ scopes:
+ descriptions:
+ discourse_ai:
+ search: "Umożliwia wyszukiwanie AI"
+ stream_completion: "Umożliwia strumieniowe uzupełnianie osobowości AI"
site_settings:
categories:
discourse_ai: "Discourse AI"
dashboard:
+ emotion:
+ title: "Emocje"
reports:
filters:
+ group_by:
+ label: "Grupuj według"
sort_by:
label: "Sortuj po"
tag:
@@ -47,6 +57,7 @@ pl_PL:
description: "Liczba postów do pobrania na potrzeby raportu"
tokens_per_post:
label: "Tokeny za post"
+ description: "Liczba tokenów LLM do użycia na post"
model:
label: "Model"
description: "LLM do wykorzystania do generowania raportów"
@@ -76,17 +87,34 @@ pl_PL:
description: "Nadaj priorytet treściom z tej grupy w raporcie"
temperature:
label: "Temperatura"
+ description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)."
llm_tool_triage:
fields:
model:
label: "Model"
+ description: "Domyślny model językowy używany do selekcji"
+ tool:
+ label: "Narzędzie"
+ llm_persona_triage:
+ fields:
+ persona:
+ label: "Osobowość"
+ silent_mode:
+ label: "Tryb cichy"
+ description: "W trybie cichym persona otrzyma zawartość, ale nie opublikuje niczego na forum - przydatne podczas przeprowadzania selekcji przy użyciu narzędzi."
llm_triage:
fields:
system_prompt:
label: "Monit systemowy"
description: "Wskazówka, która zostanie użyta do trializacji, upewnij się, że odpowiedziałaś jednym słowem, którego możesz użyć do uruchomienia akcji"
+ max_post_tokens:
+ label: "Maksymalna ilość tokenów postu"
+ description: "Maksymalna liczba tokenów do skanowania przy użyciu selekcji LLM"
+ stop_sequences:
+ description: "Poinstruuj model, aby zatrzymał generowanie tokenów po osiągnięciu jednej z tych wartości"
search_for_text:
label: "Wyszukaj tekst"
+ description: "Jeśli w odpowiedzi LLM pojawi się następujący tekst, wykonaj następujące czynności"
category:
label: "Kategoria"
description: "Kategoria do zastosowania w temacie"
@@ -95,78 +123,234 @@ pl_PL:
description: "Tagi do zastosowania w temacie"
canned_reply:
label: "Odpowiedz"
+ description: "Nieprzetworzony tekst odpowiedzi na post w temacie"
canned_reply_user:
label: "Odpowiedz użytkownikowi"
description: "Nazwa użytkownika, który ma opublikować odpowiedź w szablonie"
hide_topic:
label: "Ukryj temat"
+ description: "Spraw, by temat nie był widoczny publicznie, jeśli zostanie uruchomiony."
+ flag_type:
+ label: "Typ flagi"
+ description: "Rodzaj flagi, która ma zostać zastosowana do postu (spam lub wysłanie do sprawdzenia)."
+ flag_post:
+ label: "Oflaguj post"
+ description: "Oflaguj post (jako spam lub do sprawdzenia)"
+ include_personal_messages:
+ label: "Dołącz osobiste wiadomości"
+ description: "Skanuj i sortuj również wiadomości prywatne"
+ reply_persona:
+ label: "Persona odpowiedzi"
+ description: "AI Persona użyta do odpowiedzi (musi mieć domyślną wartość LLM), będzie traktowana priorytetowo nad gotową odpowiedzią"
model:
label: "Model"
+ description: "Model językowy używany do selekcji"
temperature:
label: "Temperatura"
+ description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)."
discourse_ai:
title: "AI"
modals:
select_option: "Wybierz opcję..."
spam:
short_title: "Spam"
+ title: "Skonfiguruj obsługę spamu"
+ select_llm: "Wybierz LLM"
+ custom_instructions: "Instrukcje niestandardowe"
+ custom_instructions_help: "Niestandardowe instrukcje specyficzne dla Twojej witryny, aby pomóc sztucznej inteligencji w identyfikacji spamu, np. \"Bądź bardziej agresywny w skanowaniu postów nie w języku angielskim\"."
last_seven_days: "Ostatnie 7 dni"
+ scanned_count: "Przeskanowane posty"
+ false_positives: "Nieprawidłowo oznaczony"
+ false_negatives: "Pominięty spam"
+ spam_detected: "Wykryto spam"
+ custom_instructions_placeholder: "Instrukcje dla AI specyficzne dla witryny, aby pomóc w dokładniejszej identyfikacji spamu"
enable: "Włącz"
+ spam_tip: "Wykrywanie spamu przez sztuczną inteligencję będzie skanować pierwsze 3 posty wszystkich nowych użytkowników w tematach publicznych. Oznaczy je do sprawdzenia i zablokuje użytkowników, jeśli istnieje prawdopodobieństwo, że są spamem."
+ settings_saved: "Ustawienia zapisane"
+ spam_description: "Identyfikuje potencjalny spam przy użyciu wybranego LLM i oznacza go dla moderatorów witryny w celu sprawdzenia w kolejce przeglądania."
+ no_llms: "Brak dostępnych LLM"
+ test_button: "Test..."
+ save_button: "Zapisz zmiany"
test_modal:
+ title: "Test wykrywania spamu"
+ post_url_label: "Adres URL lub identyfikator posta"
result: "Wynik"
+ scan_log: "Dziennik skanowania"
+ run: "Przeprowadź test"
spam: "Spam"
+ not_spam: "Nie spam"
+ errors:
+ scan_not_admin:
+ action: "Napraw"
+ resolved: "Błąd został rozwiązany!"
usage:
+ short_title: "Użycie"
summary: "Podsumowanie"
+ total_tokens: "Wszystkie tokeny"
+ tokens_over_time: "Tokeny w czasie"
+ features_breakdown: "Wykorzystanie według funkcji"
+ feature: "Funkcja"
+ usage_count: "Liczba użyć"
model: "Model"
+ models_breakdown: "Wykorzystanie na model"
+ users_breakdown: "Wykorzystanie na użytkownika"
+ all_features: "Wszystkie funkcje"
+ all_models: "Wszystkie modele"
username: "Nazwa użytkownika"
total_requests: "Razem zapytań"
+ request_tokens: "Tokeny żądania"
+ response_tokens: "Tokeny odpowiedzi"
+ net_request_tokens: "Tokeny żądania sieci"
+ cached_tokens: "Tokeny buforowane"
+ cached_request_tokens: "Buforowane tokeny żądań"
+ no_users: "Nie znaleziono danych użycia użytkownika"
+ no_models: "Nie znaleziono danych o użyciu modelu"
+ no_features: "Nie znaleziono danych o użyciu funkcji"
+ subheader_description: "Tokeny są podstawowymi jednostkami, których LLM używa do rozumienia i generowania tekstu, dane dotyczące użytkowania mogą wpływać na koszty"
+ stat_tooltips:
+ total_requests: "Wszystkie prośby kierowane do LLM za pośrednictwem Discourse"
+ total_tokens: "Wszystkie tokeny używane podczas monitowania LLM"
+ request_tokens: "Tokeny używane, gdy LLM próbuje zrozumieć, co mówisz"
+ response_tokens: "Tokeny używane, gdy LLM odpowiada na twój prompt"
+ cached_tokens: "Wcześniej przetworzone tokeny żądań, które LLM ponownie wykorzystuje w celu optymalizacji wydajności i kosztów."
periods:
last_day: "Ostatnie 24 godziny"
+ last_week: "Ostatni tydzień"
+ last_month: "Ostatni miesiąc"
custom: "Niestandardowy..."
ai_persona:
+ ai_tools: "Narzędzia"
+ tool_strategies:
+ all: "Zastosuj do wszystkich odpowiedzi"
back: "Poprzednia"
name: "Nazwa"
edit: "Edytuj"
description: "Opis"
no_llm_selected: "Nie wybrano modelu językowego"
+ use_parent_llm: "Użyj modelu językowego person"
max_context_posts_help: "Maksymalna liczba postów do wykorzystania jako kontekst dla sztucznej inteligencji podczas odpowiadania użytkownikowi. (domyślnie puste)"
+ vision_enabled: Wizja włączona
+ vision_enabled_help: Jeśli jest włączona, sztuczna inteligencja będzie próbowała zrozumieć obrazy publikowane przez użytkowników w temacie, w zależności od używanego modelu wspierającego widzenie. Obsługiwane przez najnowsze modele Anthropic, Google i OpenAI.
vision_max_pixels: Obsługiwany rozmiar obrazu
+ vision_max_pixel_sizes:
+ low: Niska jakość - najtańsza (256x256)
+ medium: Średnia jakość (512x512)
+ high: Wysoka jakość - najwolniejsza (1024x1024)
+ tool_details: Pokaż szczegóły narzędzia
+ tool_details_help: Pokaże użytkownikom końcowym szczegółowe informacje na temat narzędzi uruchomionych przez model językowy.
+ mentionable: Zezwalaj na wzmianki
user: Użytkownik
+ create_user: Utwórz użytkownika
create_user_help: Opcjonalnie możesz przypisać użytkownika do tej osoby. Jeśli to zrobisz, sztuczna inteligencja użyje tego użytkownika do odpowiedzi na żądania.
+ default_llm: Domyślny model językowy
default_llm_help: Domyślny model językowy używany dla tej persony. Wymagane, jeśli chcesz wspomnieć o osobie w postach publicznych.
+ system_prompt: Prompt systemowy
+ allow_personal_messages: "Zezwalaj na wiadomości osobiste"
+ allow_personal_messages_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wysyłać osobiste wiadomości do tej persony."
+ allow_topic_mentions: "Zezwalaj na wzmianki o temacie"
+ allow_topic_mentions_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wspominać o tej personie w tematach."
+ force_default_llm: "Zawsze używaj domyślnego modelu języka"
save: "Zapisz"
+ saved: "Persona zapisana"
enabled: "Włączona?"
+ tools: "Włączone narzędzia"
+ forced_tools: "Narzędzia wymuszone"
allowed_groups: "Dozwolone grupy"
confirm_delete: "Czy na pewno chcesz usunąć tę personę?"
+ new: "Nowa persona"
+ no_personas: "Nie utworzyłeś jeszcze żadnych person"
+ title: "Persony"
+ short_title: "Persony"
delete: "Usuń"
temperature: "Temperatura"
+ temperature_help: "Temperatura używana w LLM. Zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnej wartości modelu, zazwyczaj od 0,0 do 2,0)."
priority: "Priorytet"
priority_help: "Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie."
+ tool_options: "Opcje narzędzi"
+ rag_conversation_chunks: "Przeszukuj fragmenty konwersacji"
+ list:
+ enabled: "Bot AI?"
+ ai_bot:
+ title: "Opcje bota AI"
rag:
+ options:
+ show_indexing_options: "Pokaż opcje przesyłania"
+ hide_indexing_options: "Ukryj opcje przesyłania"
uploads:
title: "Pliki"
+ button: "Dodaj pliki"
+ filter: "Filtruj przesyłane pliki"
+ indexed: "Zindeksowano"
+ indexing: "Indeksowanie"
+ uploaded: "Gotowe do indeksowania"
uploading: "Przesyłanie..."
+ remove: "Usuń przesyłanie"
tools:
back: "Poprzednia"
+ short_title: "Narzędzia"
+ no_tools: "Nie utworzyłeś jeszcze żadnych narzędzi"
name: "Nazwa"
+ name_help: "Nazwa pojawi się w interfejsie użytkownika Discourse i będzie krótkim identyfikatorem, którego będziesz używać do znajdowania narzędzia w różnych ustawieniach. Powinna być ona unikatowa (jest wymagana)"
+ new: "Nowe narzędzie"
+ tool_name: "Nazwa narzędzia"
+ tool_name_help: "Nazwa narzędzia jest prezentowana w dużym modelu językowym. Nie jest ona odrębna, ale jest odrębna dla każdej persony. (persona sprawdza poprawność przy zapisywaniu)"
description: "Opis"
+ description_help: "Jasny opis celu narzędzia dla modelu językowego"
+ subheader_description: "Narzędzia rozszerzają możliwości botów AI o zdefiniowane przez użytkownika funkcje JavaScript."
summary: "Podsumowanie"
+ summary_help: "Podsumowanie celu narzędzi wyświetlane użytkownikom końcowym"
+ script: "Skrypt"
+ parameters: "Parametry"
save: "Zapisz"
+ add_parameter: "Dodaj parametr"
parameter_required: "Wymagane"
+ parameter_enum: "Enum"
+ parameter_name: "Nazwa parametru"
+ parameter_description: "Opis parametru"
+ enum_value: "Wartość enum"
+ add_enum_value: "Dodaj wartość enum"
edit: "Edytuj"
+ test: "Przeprowadź test"
delete: "Usuń"
+ saved: "Narzędzie zapisane"
+ presets: "Wybierz ustawienie wstępne..."
+ confirm_delete: "Czy na pewno chcesz usunąć to narzędzie?"
next:
title: "Następna"
+ test_modal:
+ title: "Przetestuj narzędzie AI"
+ run: "Przeprowadź test"
+ result: "Wynik testu"
llms:
+ short_title: "LLMs"
+ no_llms: "Nie ma jeszcze LLM"
+ new: "Nowy model"
display_name: "Nazwa"
+ name: "Identyfikator modelu"
+ provider: "Dostawca"
+ tokenizer: "Tokenizer"
+ max_prompt_tokens: "Liczba tokenów dla promptu"
+ url: "Adres URL usługi hostującej model"
+ api_key: "Klucz API usługi hostującej model"
+ enabled_chat_bot: "Zezwól na wybór bota AI"
+ vision_enabled: "Wizja włączona"
+ ai_bot_user: "Użytkownik bota AI"
save: "Zapisz"
edit: "Edytuj"
+ saved: "Model LLM zapisany"
back: "Poprzednia"
+ confirm_delete: Czy na pewno chcesz usunąć ten model?
delete: Usuń
+ seeded_warning: "Ten model jest wstępnie skonfigurowany w Twojej witrynie i nie można go edytować."
quotas:
+ title: "Limity wykorzystania"
+ add_title: "Utwórz nowy limit"
group: "Grupa"
+ max_tokens: "Maksymalna liczba tokenów"
max_usages: "Maksymalna liczba użyć"
duration: "Czas trwania"
+ confirm_delete: "Czy na pewno chcesz usunąć ten limit?"
+ add: "Dodaj limit"
durations:
hour: "1 godzina"
six_hours: "6 godzin"
@@ -174,23 +358,78 @@ pl_PL:
week: "7 dni"
custom: "Niestandardowy..."
hours: "godzin"
+ max_tokens_help: "Maksymalna liczba tokenów (słów i znaków), które każdy użytkownik w tej grupie może wykorzystać w określonym czasie. Tokeny to jednostki używane przez modele AI do przetwarzania tekstu - w przybliżeniu 1 token = 4 znaki lub 3/4 słowa."
+ max_tokens_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnego użycia"
+ max_usages_help: "Maksymalna liczba przypadków, w których każdy użytkownik w tej grupie może użyć modelu AI w określonym czasie. Ten limit jest śledzony dla poszczególnych użytkowników, a nie współdzielony przez grupę."
+ max_usages_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnej liczby tokenów"
usage:
+ ai_bot: "Bot AI"
+ ai_helper: "Pomocnik"
+ ai_persona: "Persona (%{persona})"
ai_summarization: "Podsumuj"
+ ai_embeddings_semantic_search: "Wyszukiwanie AI"
ai_spam: "Spam"
+ model_description:
+ none: "Ogólne ustawienia, które działają dla większości modeli językowych"
+ anthropic-claude-3-7-sonnet: "Najbardziej inteligentny model Anthropic"
+ anthropic-claude-3-5-haiku: "Szybko i ekonomicznie"
+ anthropic-claude-3-opus: "Doskonale radzi sobie z pisaniem i złożonymi zadaniami"
+ google-gemini-1-5-pro: "Średniej wielkości model multimodalny zdolny do wykonywania szerokiego zakresu zadań"
+ google-gemini-1-5-flash: "Lekki, szybki i ekonomiczny z multimodalnym rozumowaniem"
+ open_ai-gpt-4-turbo: "Model wysokiej inteligencji poprzedniej generacji"
+ open_ai-gpt-4o: "Model o wysokiej inteligencji do złożonych, wieloetapowych zadań"
+ open_ai-gpt-4o-mini: "Przystępny cenowo i szybki mały model do lekkich zadań"
+ open_ai-o1-mini: "Ekonomiczny model rozumowania"
+ open_ai-o1-preview: "Najbardziej wydajny model rozumowania Open AI (podgląd)"
+ open_ai-o1: "Najbardziej wydajny model rozumowania Open AI"
+ open_ai-o3-mini: "Zaawansowany, efektywny kosztowo model rozumowania"
+ samba_nova-Meta-Llama-3-1-8B-Instruct: "Wydajny, lekki model wielojęzyczny"
+ samba_nova-Meta-Llama-3-3-70B-Instruct": "Wydajny model wielofunkcyjny"
+ mistral-mistral-large-latest: "Najpotężniejszy model Mistral"
+ mistral-pixtral-large-latest: "Najpotężniejszy model Mistral zdolny do widzenia"
+ preseeded_model_description: "Wstępnie skonfigurowany model open-source wykorzystujący %{model}"
+ configured:
+ title: "Skonfigurowane LLM"
+ preconfigured_llms: "Wybierz swój LLM"
+ preconfigured:
+ title_no_llms: "Wybierz szablon, aby rozpocząć"
+ title: "Nieskonfigurowane szablony LLM"
+ description: "LLM (Large Language Models) to narzędzia sztucznej inteligencji zoptymalizowane do zadań takich jak podsumowywanie treści, generowanie raportów, automatyzacja interakcji z klientami oraz ułatwianie moderowania i analizowania forów."
+ fake: "Konfiguracja ręczna"
+ button: "Skonfiguruj"
next:
title: "Następna"
tests:
+ title: "Przeprowadź test"
+ running: "Przeprowadzam test..."
success: "Sukces!"
+ failure: "Próba nawiązania kontaktu z modelem zwróciła następujący błąd: %{error}"
+ hints:
+ max_prompt_tokens: "Maksymalna liczba tokenów dla promptu. Z reguły powinno to być 50% okna kontekstowego modelu."
+ display_name: "Nazwa używana do odwoływania się do tego modelu w interfejsie Twojej witryny."
+ name: "Uwzględniamy to w wywołaniu API, aby określić, którego modelu będziemy używać"
+ enabled_chat_bot: "Jeśli ta opcja jest włączona, użytkownicy mogą wybrać ten model podczas tworzenia wiadomości prywatnych za pomocą bota AI"
providers:
google: "Google"
fake: "Niestandardowe"
+ provider_fields:
+ organization: "Opcjonalny identyfikator organizacji OpenAI"
+ disable_system_prompt: "Wyłącz wiadomość systemową w promptach"
+ enable_native_tool: "Włącz obsługę natywnych narzędzi"
+ provider_order: "Kolejność dostawców (lista rozdzielona przecinkami)"
+ enable_reasoning: "Włącz rozumowanie (dotyczy tylko Sonnet 3.7)"
+ reasoning_tokens: "Liczba tokenów użytych do wnioskowania"
+ disable_temperature: "Wyłącz temperaturę (niektóre modele nie obsługują temperatury)"
related_topics:
+ title: "Powiązane tematy"
pill: "Powiązane"
ai_helper:
title: "Zaproponuj zmiany za pomocą AI"
description: "Wybierz jedną z poniższych opcji, a sztuczna inteligencja zasugeruje Ci nową wersję tekstu."
selection_hint: "Wskazówka: Możesz także zaznaczyć część tekstu przed otwarciem pomocnika, aby przepisać tylko ten fragment."
suggest: "Zasugeruj za pomocą AI"
+ suggest_errors:
+ no_suggestions: "Brak dostępnych sugestii"
missing_content: "Wprowadź treść, aby wygenerować sugestie."
context_menu:
trigger: "Zapytaj AI"
@@ -199,8 +438,12 @@ pl_PL:
regen: "Spróbuj ponownie"
confirm: "Potwierdź"
discard: "Odrzuć"
+ changes: "Sugerowane zmiany"
custom_prompt:
+ title: "Niestandardowy prompt"
placeholder: "Wprowadź niestandardowy monit..."
+ submit: "Wyślij prompt"
+ translate_prompt: "Przetłumacz na %{language}"
post_options_menu:
trigger: "Zapytaj AI"
title: "Zapytaj AI"
@@ -209,13 +452,22 @@ pl_PL:
copy: "Kopiuj"
copied: "Skopiowane!"
cancel: "Anuluj"
+ insert_footnote: "Dodaj przypis"
+ footnote_disabled: "Automatyczne wstawianie wyłączone, kliknij przycisk kopiowania i edytuj ręcznie."
+ footnote_credits: "Wyjaśnienie przez AI"
+ fast_edit:
+ suggest_button: "Zaproponuj edycję"
thumbnail_suggestions:
+ title: "Sugerowane miniatury"
select: "Wybierz"
selected: "Wybrany"
image_caption:
save_caption: "Zapisz"
automatic_caption_dialog:
+ prompt: "Ten post zawiera obrazy bez podpisów. Czy chcesz włączyć automatyczne podpisy przy przesyłaniu zdjęć? (Można to później zmienić w preferencjach)."
confirm: "Włącz"
+ cancel: "Nie pytaj ponownie"
+ no_content_error: "Najpierw dodaj zawartość, aby wykonać na niej działania AI."
reviewables:
model_used: "Zastosowany model:"
accuracy: "Dokładność:"
@@ -223,20 +475,33 @@ pl_PL:
back: "Poprzednia"
save: "Zapisz"
delete: "Usuń"
+ presets: "Wybierz ustawienie wstępne..."
+ configure_manually: "Skonfiguruj ręcznie"
edit: "Edytuj"
+ seeded_warning: "To jest wstępnie skonfigurowane na twojej stronie i nie może być edytowane."
tests:
+ title: "Przeprowadź test"
+ running: "Przeprowadzam test..."
success: "Sukces!"
+ hints:
+ dimensions_warning: "Po zapisaniu wartość ta nie może zostać zmieniona."
display_name: "Nazwa"
providers:
google: "Google"
fake: "Niestandardowe"
+ provider_fields:
+ model_name: "Nazwa modelu"
semantic_search: "Tematy (semantyczne)"
semantic_search_loading: "Wyszukiwanie większej liczby wyników przy użyciu AI"
semantic_search_results:
toggle: "Wyświetlanie %{count} wyników znalezionych przy użyciu AI"
toggle_hidden: "Ukrywanie %{count} wyników znalezionych przy użyciu AI"
none: "Przepraszamy, nasze wyszukiwanie AI nie znalazło pasujących tematów"
+ unavailable: "Wyniki AI są niedostępne"
ai_generated_result: "Wynik wyszukiwania znaleziony przy użyciu AI"
+ ai_artifact:
+ expand_view_label: "Rozszerz widok"
+ collapse_view_label: "Wyjdź z trybu pełnoekranowego (przycisk ESC lub Wstecz)"
ai_bot:
pm_warning: "Wiadomości wysyłane przez chatboty AI są regularnie monitorowane przez moderatorów."
cancel_streaming: "Zatrzymaj odpowiedź"
@@ -268,6 +533,7 @@ pl_PL:
dashboard:
title: "Sentiment"
sentiment_analysis:
+ share_chart: "Skopiuj link do wykresu"
filter_types:
all: "Wszystkie"
positive: "Pozytywne"
@@ -291,11 +557,23 @@ pl_PL:
other: "Ostatnie %{count} godzin"
topic:
title: "Podsumowanie tematu"
+ close: "Zamknij panel podsumowania"
+ topic_list_layout:
+ button:
+ expanded: "Rozszerzony"
+ expanded_description: "z podsumowaniami AI"
discobot_discoveries:
+ main_title: "Odkrycia Discobota"
regular_results: "Tematy"
+ tell_me_more: "Powiedz mi więcej..."
+ continue_convo: "Kontynuuj rozmowę..."
+ loading_convo: "Ładowanie konwersacji"
collapse: "Zwiń"
tooltip:
+ header: "Wyszukiwanie oparte na AI"
+ content: "Wyszukiwanie w języku naturalnym obsługiwane przez %{model}"
actions:
+ info: "Jak to działa?"
disable: "Wyłącz"
review:
types:
diff --git a/config/locales/server.de.yml b/config/locales/server.de.yml
index 82e9ea7c..bd19803b 100644
--- a/config/locales/server.de.yml
+++ b/config/locales/server.de.yml
@@ -293,6 +293,12 @@ de:
web_artifact_creator:
name: "Web-Artefakt-Ersteller"
description: "KI-Bot, spezialisiert auf die Erstellung interaktiver Web-Artefakte"
+ summarizer:
+ name: "Zusammenfasser"
+ description: "Standard-Persona für die KI-Zusammenfassungen"
+ short_summarizer:
+ name: "Zusammenfasser (Kurzform)"
+ description: "Standard-Persona zur Erstellung von KI-Kurzzusammenfassungen für die Elemente der Themenlisten"
topic_not_found: "Zusammenfassung nicht verfügbar, Thema nicht gefunden!"
summarizing: "Thema zusammenfassen"
searching: "Suche nach: „%{query}“"
@@ -412,6 +418,10 @@ de:
search_settings:
one: "%{count} Ergebnis für „%{query}“ gefunden"
other: "%{count} Ergebnisse für „%{query}“ gefunden"
+ discoveries:
+ continue_conversation:
+ title: "Entdeckungsunterhaltung: Suche nach %{query}"
+ raw: "Bei meiner Suche nach %{query} hast du mir die folgenden Informationen gezeigt:\n\n%{context}\n\nLass uns die Unterhaltung fortsetzen."
summarization:
configuration_hint:
one: "Konfiguriere zunächst die Einstellung `%{setting}`."
@@ -435,6 +445,7 @@ de:
neutral: "Neutral"
llm:
configuration:
+ create_llm: "Du musst einen LLM einrichten, bevor du diese Funktion aktivierst"
disable_module_first: "Du musst zuerst %{setting} deaktivieren."
set_llm_first: "Stelle zuerst %{setting} ein"
model_unreachable: "Wir konnten keine Antwort von diesem Modell abrufen. Überprüfe zuerst deine Einstellungen."
diff --git a/config/locales/server.pl_PL.yml b/config/locales/server.pl_PL.yml
index 7e792b9c..3854818a 100644
--- a/config/locales/server.pl_PL.yml
+++ b/config/locales/server.pl_PL.yml
@@ -6,6 +6,10 @@
pl_PL:
discourse_automation:
+ ai:
+ flag_types:
+ spam: "Oznacz jako spam i ukryj post"
+ spam_silence: "Oznacz jako spam, ukryj post i wycisz użytkownika"
scriptables:
llm_triage:
title: Oceniaj posty za pomocą sztucznej inteligencji
@@ -55,6 +59,13 @@ pl_PL:
ai_embeddings_semantic_search_enabled: "Włącz wyszukiwanie semantyczne na całej stronie."
ai_embeddings_semantic_related_include_closed_topics: "Uwzględnij zamknięte tematy w semantycznych wynikach wyszukiwania"
ai_embeddings_semantic_search_hyde_model: "Model używany do rozwijania słów kluczowych w celu uzyskania lepszych wyników podczas wyszukiwania semantycznego"
+ ai_summarization_enabled: "Włącz moduł podsumowania tematu."
+ ai_summarization_model: "Model używany do podsumowania."
+ ai_custom_summarization_allowed_groups: "Grupy, które mogą tworzyć nowe podsumowania."
+ ai_pm_summarization_allowed_groups: "Grupy mogą tworzyć i przeglądać podsumowania w wiadomościach prywatnych."
+ ai_summary_gists_enabled: "Automatycznie generuj krótkie podsumowania najnowszych odpowiedzi w tematach."
+ ai_summary_gists_allowed_groups: "Grupy mogą przeglądać sedno dyskusji na liście gorących tematów."
+ ai_summary_backfill_maximum_topics_per_hour: "Liczba podsumowań tematów do uzupełnienia na godzinę."
ai_bot_enabled: "Włącz moduł bota AI."
ai_bot_enable_chat_warning: "Wyświetl ostrzeżenie po zainicjowaniu czatu PW. Można je zastąpić, edytując ciąg tłumaczenia: discourse_ai.ai_bot.pm_warning"
ai_bot_allowed_groups: "Gdy bot GPT uzyska dostęp do PW, odpowie członkom tych grup."
@@ -87,12 +98,15 @@ pl_PL:
title: "\U0001F632 Niespodzianka"
discourse_ai:
ai_artifact:
+ view_source: "Zobacz źródło"
view_changes: "Zobacz zmiany"
+ change_description: "Zmień opis"
unknown_model: "Nieznany model AI"
ai_helper:
errors:
completion_request_failed: "Coś poszło nie tak podczas próby przedstawienia sugestii. Spróbuj ponownie."
prompts:
+ translate: Przetłumacz na %{language}
generate_titles: Zaproponuj tytuły tematu
proofread: Popraw tekst
markdown_table: Wygeneruj tabelę Markdown
@@ -101,8 +115,19 @@ pl_PL:
illustrate_post: "Zilustruj post"
share_ai:
read_more: "Przeczytaj pełną transkrypcję"
+ errors:
+ not_allowed: "Nie masz uprawnień do udostępniania tego tematu"
+ failed_to_share: "Nie udało się udostępnić konwersacji"
+ conversation_deleted: "Udostępniona konwersacja została pomyślnie usunięta"
+ spam_detection:
+ flag_reason: "Oznaczono jako spam przez Discourse AI"
+ silence_reason: "Użytkownik wyciszony automatycznie przez Discourse AI"
+ invalid_error_type: "Podano nieprawidłowy typ błędu"
+ unexpected: "Wystąpił nieoczekiwany błąd"
+ bot_user_update_failed: "Nie udało się zaktualizować użytkownika bota skanującego spam"
ai_bot:
default_pm_prefix: "[PW bota AI bez tytułu]"
+ thinking: "Myślenie..."
personas:
cannot_delete_system_persona: "Person systemowych nie można usunąć, zamiast tego wyłącz je."
general:
@@ -126,10 +151,15 @@ pl_PL:
dall_e3:
name: "DALL-E 3"
description: "Bot AI specjalizujący się w generowaniu obrazów przy użyciu DALL-E 3"
+ short_summarizer:
+ name: "Podsumowanie (forma krótka)"
topic_not_found: "Podsumowanie niedostępne, nie znaleziono tematu!"
summarizing: "Podsumowanie tematu"
searching: "Wyszukiwanie: '%{query}'"
tool_options:
+ update_artifact:
+ update_algorithm:
+ description: "Poproś LLM o pełne zastąpienie lub użyj diff do aktualizacji"
google:
base_query:
name: "Podstawowe zapytanie wyszukiwania"
@@ -141,6 +171,7 @@ pl_PL:
name: "Podstawowe zapytanie wyszukiwania"
description: "Podstawowe zapytanie używane podczas wyszukiwania. Przykład: '#pilne' spowoduje dodanie '#pilne' do zapytania wyszukiwania i uwzględnienie tylko tematów z kategorią lub tagiem pilne."
tool_summary:
+ web_browser: "Przeglądaj sieć"
random_picker: "Losowy selektor"
categories: "Wymień kategorie"
search: "Szukaj"
@@ -233,5 +264,17 @@ pl_PL:
disable_module_first: "Najpierw musisz wyłączyć %{setting}."
set_llm_first: "Najpierw ustaw %{setting}"
model_unreachable: "Nie mogliśmy uzyskać odpowiedzi od tego modelu. Sprawdź najpierw swoje ustawienia."
+ embeddings:
+ cannot_edit_builtin: "Nie możesz edytować wbudowanego modelu."
+ configuration:
+ invalid_config: "Wybrałeś nieprawidłową opcję."
+ llm_models:
+ missing_provider_param: "%{param} nie może być pusty"
+ bedrock_invalid_url: "Wypełnij wszystkie pola, aby korzystać z tego modelu."
errors:
+ quota_exceeded: "Przekroczyłeś limit dla tego modelu. Spróbuj ponownie za %{relative_time}."
+ quota_required: "Musisz określić maksymalną liczbę tokenów lub użyć dla tego modelu"
+ no_query_specified: Parametr zapytania jest wymagany, podaj go.
+ no_user_for_persona: Określona persona nie ma powiązanego użytkownika.
+ persona_not_found: Określona persona nie istnieje. Sprawdź parametry persona_name lub persona_id.
prompt_message_length: Wiadomość %{idx} przekracza limit 1000 znaków.