diff --git a/config/locales/client.de.yml b/config/locales/client.de.yml index c8b05f53..c0904483 100644 --- a/config/locales/client.de.yml +++ b/config/locales/client.de.yml @@ -703,9 +703,11 @@ de: main_title: "Discobot Entdeckungen" regular_results: "Themen" tell_me_more: "Erzähl mir mehr..." + continue_convo: "Unterhaltung fortsetzen..." + loading_convo: "Unterhaltung wird geladen" collapse: "Zuklappen" timed_out: "Discobot konnte keine Entdeckungen finden. Irgendetwas ist schief gelaufen." - user_setting: "Sucherkennungen ermöglichen" + user_setting: "Suchentdeckungen aktivieren" tooltip: header: "KI-gestützte Suche" content: "Natürliche Sprachsuche unterstützt von %{model}" diff --git a/config/locales/client.pl_PL.yml b/config/locales/client.pl_PL.yml index 38186ca0..11ee5b30 100644 --- a/config/locales/client.pl_PL.yml +++ b/config/locales/client.pl_PL.yml @@ -7,12 +7,22 @@ pl_PL: admin_js: admin: + api: + scopes: + descriptions: + discourse_ai: + search: "Umożliwia wyszukiwanie AI" + stream_completion: "Umożliwia strumieniowe uzupełnianie osobowości AI" site_settings: categories: discourse_ai: "Discourse AI" dashboard: + emotion: + title: "Emocje" reports: filters: + group_by: + label: "Grupuj według" sort_by: label: "Sortuj po" tag: @@ -47,6 +57,7 @@ pl_PL: description: "Liczba postów do pobrania na potrzeby raportu" tokens_per_post: label: "Tokeny za post" + description: "Liczba tokenów LLM do użycia na post" model: label: "Model" description: "LLM do wykorzystania do generowania raportów" @@ -76,17 +87,34 @@ pl_PL: description: "Nadaj priorytet treściom z tej grupy w raporcie" temperature: label: "Temperatura" + description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)." llm_tool_triage: fields: model: label: "Model" + description: "Domyślny model językowy używany do selekcji" + tool: + label: "Narzędzie" + llm_persona_triage: + fields: + persona: + label: "Osobowość" + silent_mode: + label: "Tryb cichy" + description: "W trybie cichym persona otrzyma zawartość, ale nie opublikuje niczego na forum - przydatne podczas przeprowadzania selekcji przy użyciu narzędzi." llm_triage: fields: system_prompt: label: "Monit systemowy" description: "Wskazówka, która zostanie użyta do trializacji, upewnij się, że odpowiedziałaś jednym słowem, którego możesz użyć do uruchomienia akcji" + max_post_tokens: + label: "Maksymalna ilość tokenów postu" + description: "Maksymalna liczba tokenów do skanowania przy użyciu selekcji LLM" + stop_sequences: + description: "Poinstruuj model, aby zatrzymał generowanie tokenów po osiągnięciu jednej z tych wartości" search_for_text: label: "Wyszukaj tekst" + description: "Jeśli w odpowiedzi LLM pojawi się następujący tekst, wykonaj następujące czynności" category: label: "Kategoria" description: "Kategoria do zastosowania w temacie" @@ -95,78 +123,234 @@ pl_PL: description: "Tagi do zastosowania w temacie" canned_reply: label: "Odpowiedz" + description: "Nieprzetworzony tekst odpowiedzi na post w temacie" canned_reply_user: label: "Odpowiedz użytkownikowi" description: "Nazwa użytkownika, który ma opublikować odpowiedź w szablonie" hide_topic: label: "Ukryj temat" + description: "Spraw, by temat nie był widoczny publicznie, jeśli zostanie uruchomiony." + flag_type: + label: "Typ flagi" + description: "Rodzaj flagi, która ma zostać zastosowana do postu (spam lub wysłanie do sprawdzenia)." + flag_post: + label: "Oflaguj post" + description: "Oflaguj post (jako spam lub do sprawdzenia)" + include_personal_messages: + label: "Dołącz osobiste wiadomości" + description: "Skanuj i sortuj również wiadomości prywatne" + reply_persona: + label: "Persona odpowiedzi" + description: "AI Persona użyta do odpowiedzi (musi mieć domyślną wartość LLM), będzie traktowana priorytetowo nad gotową odpowiedzią" model: label: "Model" + description: "Model językowy używany do selekcji" temperature: label: "Temperatura" + description: "Temperatura używana dla LLM. Zwiększ, aby zwiększyć losowość (pozostaw puste, aby użyć domyślnego modelu)." discourse_ai: title: "AI" modals: select_option: "Wybierz opcję..." spam: short_title: "Spam" + title: "Skonfiguruj obsługę spamu" + select_llm: "Wybierz LLM" + custom_instructions: "Instrukcje niestandardowe" + custom_instructions_help: "Niestandardowe instrukcje specyficzne dla Twojej witryny, aby pomóc sztucznej inteligencji w identyfikacji spamu, np. \"Bądź bardziej agresywny w skanowaniu postów nie w języku angielskim\"." last_seven_days: "Ostatnie 7 dni" + scanned_count: "Przeskanowane posty" + false_positives: "Nieprawidłowo oznaczony" + false_negatives: "Pominięty spam" + spam_detected: "Wykryto spam" + custom_instructions_placeholder: "Instrukcje dla AI specyficzne dla witryny, aby pomóc w dokładniejszej identyfikacji spamu" enable: "Włącz" + spam_tip: "Wykrywanie spamu przez sztuczną inteligencję będzie skanować pierwsze 3 posty wszystkich nowych użytkowników w tematach publicznych. Oznaczy je do sprawdzenia i zablokuje użytkowników, jeśli istnieje prawdopodobieństwo, że są spamem." + settings_saved: "Ustawienia zapisane" + spam_description: "Identyfikuje potencjalny spam przy użyciu wybranego LLM i oznacza go dla moderatorów witryny w celu sprawdzenia w kolejce przeglądania." + no_llms: "Brak dostępnych LLM" + test_button: "Test..." + save_button: "Zapisz zmiany" test_modal: + title: "Test wykrywania spamu" + post_url_label: "Adres URL lub identyfikator posta" result: "Wynik" + scan_log: "Dziennik skanowania" + run: "Przeprowadź test" spam: "Spam" + not_spam: "Nie spam" + errors: + scan_not_admin: + action: "Napraw" + resolved: "Błąd został rozwiązany!" usage: + short_title: "Użycie" summary: "Podsumowanie" + total_tokens: "Wszystkie tokeny" + tokens_over_time: "Tokeny w czasie" + features_breakdown: "Wykorzystanie według funkcji" + feature: "Funkcja" + usage_count: "Liczba użyć" model: "Model" + models_breakdown: "Wykorzystanie na model" + users_breakdown: "Wykorzystanie na użytkownika" + all_features: "Wszystkie funkcje" + all_models: "Wszystkie modele" username: "Nazwa użytkownika" total_requests: "Razem zapytań" + request_tokens: "Tokeny żądania" + response_tokens: "Tokeny odpowiedzi" + net_request_tokens: "Tokeny żądania sieci" + cached_tokens: "Tokeny buforowane" + cached_request_tokens: "Buforowane tokeny żądań" + no_users: "Nie znaleziono danych użycia użytkownika" + no_models: "Nie znaleziono danych o użyciu modelu" + no_features: "Nie znaleziono danych o użyciu funkcji" + subheader_description: "Tokeny są podstawowymi jednostkami, których LLM używa do rozumienia i generowania tekstu, dane dotyczące użytkowania mogą wpływać na koszty" + stat_tooltips: + total_requests: "Wszystkie prośby kierowane do LLM za pośrednictwem Discourse" + total_tokens: "Wszystkie tokeny używane podczas monitowania LLM" + request_tokens: "Tokeny używane, gdy LLM próbuje zrozumieć, co mówisz" + response_tokens: "Tokeny używane, gdy LLM odpowiada na twój prompt" + cached_tokens: "Wcześniej przetworzone tokeny żądań, które LLM ponownie wykorzystuje w celu optymalizacji wydajności i kosztów." periods: last_day: "Ostatnie 24 godziny" + last_week: "Ostatni tydzień" + last_month: "Ostatni miesiąc" custom: "Niestandardowy..." ai_persona: + ai_tools: "Narzędzia" + tool_strategies: + all: "Zastosuj do wszystkich odpowiedzi" back: "Poprzednia" name: "Nazwa" edit: "Edytuj" description: "Opis" no_llm_selected: "Nie wybrano modelu językowego" + use_parent_llm: "Użyj modelu językowego person" max_context_posts_help: "Maksymalna liczba postów do wykorzystania jako kontekst dla sztucznej inteligencji podczas odpowiadania użytkownikowi. (domyślnie puste)" + vision_enabled: Wizja włączona + vision_enabled_help: Jeśli jest włączona, sztuczna inteligencja będzie próbowała zrozumieć obrazy publikowane przez użytkowników w temacie, w zależności od używanego modelu wspierającego widzenie. Obsługiwane przez najnowsze modele Anthropic, Google i OpenAI. vision_max_pixels: Obsługiwany rozmiar obrazu + vision_max_pixel_sizes: + low: Niska jakość - najtańsza (256x256) + medium: Średnia jakość (512x512) + high: Wysoka jakość - najwolniejsza (1024x1024) + tool_details: Pokaż szczegóły narzędzia + tool_details_help: Pokaże użytkownikom końcowym szczegółowe informacje na temat narzędzi uruchomionych przez model językowy. + mentionable: Zezwalaj na wzmianki user: Użytkownik + create_user: Utwórz użytkownika create_user_help: Opcjonalnie możesz przypisać użytkownika do tej osoby. Jeśli to zrobisz, sztuczna inteligencja użyje tego użytkownika do odpowiedzi na żądania. + default_llm: Domyślny model językowy default_llm_help: Domyślny model językowy używany dla tej persony. Wymagane, jeśli chcesz wspomnieć o osobie w postach publicznych. + system_prompt: Prompt systemowy + allow_personal_messages: "Zezwalaj na wiadomości osobiste" + allow_personal_messages_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wysyłać osobiste wiadomości do tej persony." + allow_topic_mentions: "Zezwalaj na wzmianki o temacie" + allow_topic_mentions_help: "Jeśli ta opcja jest włączona, użytkownicy w dozwolonych grupach mogą wspominać o tej personie w tematach." + force_default_llm: "Zawsze używaj domyślnego modelu języka" save: "Zapisz" + saved: "Persona zapisana" enabled: "Włączona?" + tools: "Włączone narzędzia" + forced_tools: "Narzędzia wymuszone" allowed_groups: "Dozwolone grupy" confirm_delete: "Czy na pewno chcesz usunąć tę personę?" + new: "Nowa persona" + no_personas: "Nie utworzyłeś jeszcze żadnych person" + title: "Persony" + short_title: "Persony" delete: "Usuń" temperature: "Temperatura" + temperature_help: "Temperatura używana w LLM. Zwiększ, aby zwiększyć kreatywność (pozostaw puste, aby użyć domyślnej wartości modelu, zazwyczaj od 0,0 do 2,0)." priority: "Priorytet" priority_help: "Priorytetowe persony są wyświetlane użytkownikom na górze listy person. Jeśli wiele person ma priorytet, zostaną one posortowane alfabetycznie." + tool_options: "Opcje narzędzi" + rag_conversation_chunks: "Przeszukuj fragmenty konwersacji" + list: + enabled: "Bot AI?" + ai_bot: + title: "Opcje bota AI" rag: + options: + show_indexing_options: "Pokaż opcje przesyłania" + hide_indexing_options: "Ukryj opcje przesyłania" uploads: title: "Pliki" + button: "Dodaj pliki" + filter: "Filtruj przesyłane pliki" + indexed: "Zindeksowano" + indexing: "Indeksowanie" + uploaded: "Gotowe do indeksowania" uploading: "Przesyłanie..." + remove: "Usuń przesyłanie" tools: back: "Poprzednia" + short_title: "Narzędzia" + no_tools: "Nie utworzyłeś jeszcze żadnych narzędzi" name: "Nazwa" + name_help: "Nazwa pojawi się w interfejsie użytkownika Discourse i będzie krótkim identyfikatorem, którego będziesz używać do znajdowania narzędzia w różnych ustawieniach. Powinna być ona unikatowa (jest wymagana)" + new: "Nowe narzędzie" + tool_name: "Nazwa narzędzia" + tool_name_help: "Nazwa narzędzia jest prezentowana w dużym modelu językowym. Nie jest ona odrębna, ale jest odrębna dla każdej persony. (persona sprawdza poprawność przy zapisywaniu)" description: "Opis" + description_help: "Jasny opis celu narzędzia dla modelu językowego" + subheader_description: "Narzędzia rozszerzają możliwości botów AI o zdefiniowane przez użytkownika funkcje JavaScript." summary: "Podsumowanie" + summary_help: "Podsumowanie celu narzędzi wyświetlane użytkownikom końcowym" + script: "Skrypt" + parameters: "Parametry" save: "Zapisz" + add_parameter: "Dodaj parametr" parameter_required: "Wymagane" + parameter_enum: "Enum" + parameter_name: "Nazwa parametru" + parameter_description: "Opis parametru" + enum_value: "Wartość enum" + add_enum_value: "Dodaj wartość enum" edit: "Edytuj" + test: "Przeprowadź test" delete: "Usuń" + saved: "Narzędzie zapisane" + presets: "Wybierz ustawienie wstępne..." + confirm_delete: "Czy na pewno chcesz usunąć to narzędzie?" next: title: "Następna" + test_modal: + title: "Przetestuj narzędzie AI" + run: "Przeprowadź test" + result: "Wynik testu" llms: + short_title: "LLMs" + no_llms: "Nie ma jeszcze LLM" + new: "Nowy model" display_name: "Nazwa" + name: "Identyfikator modelu" + provider: "Dostawca" + tokenizer: "Tokenizer" + max_prompt_tokens: "Liczba tokenów dla promptu" + url: "Adres URL usługi hostującej model" + api_key: "Klucz API usługi hostującej model" + enabled_chat_bot: "Zezwól na wybór bota AI" + vision_enabled: "Wizja włączona" + ai_bot_user: "Użytkownik bota AI" save: "Zapisz" edit: "Edytuj" + saved: "Model LLM zapisany" back: "Poprzednia" + confirm_delete: Czy na pewno chcesz usunąć ten model? delete: Usuń + seeded_warning: "Ten model jest wstępnie skonfigurowany w Twojej witrynie i nie można go edytować." quotas: + title: "Limity wykorzystania" + add_title: "Utwórz nowy limit" group: "Grupa" + max_tokens: "Maksymalna liczba tokenów" max_usages: "Maksymalna liczba użyć" duration: "Czas trwania" + confirm_delete: "Czy na pewno chcesz usunąć ten limit?" + add: "Dodaj limit" durations: hour: "1 godzina" six_hours: "6 godzin" @@ -174,23 +358,78 @@ pl_PL: week: "7 dni" custom: "Niestandardowy..." hours: "godzin" + max_tokens_help: "Maksymalna liczba tokenów (słów i znaków), które każdy użytkownik w tej grupie może wykorzystać w określonym czasie. Tokeny to jednostki używane przez modele AI do przetwarzania tekstu - w przybliżeniu 1 token = 4 znaki lub 3/4 słowa." + max_tokens_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnego użycia" + max_usages_help: "Maksymalna liczba przypadków, w których każdy użytkownik w tej grupie może użyć modelu AI w określonym czasie. Ten limit jest śledzony dla poszczególnych użytkowników, a nie współdzielony przez grupę." + max_usages_required: "Musi być ustawiony, jeśli nie ustawiono maksymalnej liczby tokenów" usage: + ai_bot: "Bot AI" + ai_helper: "Pomocnik" + ai_persona: "Persona (%{persona})" ai_summarization: "Podsumuj" + ai_embeddings_semantic_search: "Wyszukiwanie AI" ai_spam: "Spam" + model_description: + none: "Ogólne ustawienia, które działają dla większości modeli językowych" + anthropic-claude-3-7-sonnet: "Najbardziej inteligentny model Anthropic" + anthropic-claude-3-5-haiku: "Szybko i ekonomicznie" + anthropic-claude-3-opus: "Doskonale radzi sobie z pisaniem i złożonymi zadaniami" + google-gemini-1-5-pro: "Średniej wielkości model multimodalny zdolny do wykonywania szerokiego zakresu zadań" + google-gemini-1-5-flash: "Lekki, szybki i ekonomiczny z multimodalnym rozumowaniem" + open_ai-gpt-4-turbo: "Model wysokiej inteligencji poprzedniej generacji" + open_ai-gpt-4o: "Model o wysokiej inteligencji do złożonych, wieloetapowych zadań" + open_ai-gpt-4o-mini: "Przystępny cenowo i szybki mały model do lekkich zadań" + open_ai-o1-mini: "Ekonomiczny model rozumowania" + open_ai-o1-preview: "Najbardziej wydajny model rozumowania Open AI (podgląd)" + open_ai-o1: "Najbardziej wydajny model rozumowania Open AI" + open_ai-o3-mini: "Zaawansowany, efektywny kosztowo model rozumowania" + samba_nova-Meta-Llama-3-1-8B-Instruct: "Wydajny, lekki model wielojęzyczny" + samba_nova-Meta-Llama-3-3-70B-Instruct": "Wydajny model wielofunkcyjny" + mistral-mistral-large-latest: "Najpotężniejszy model Mistral" + mistral-pixtral-large-latest: "Najpotężniejszy model Mistral zdolny do widzenia" + preseeded_model_description: "Wstępnie skonfigurowany model open-source wykorzystujący %{model}" + configured: + title: "Skonfigurowane LLM" + preconfigured_llms: "Wybierz swój LLM" + preconfigured: + title_no_llms: "Wybierz szablon, aby rozpocząć" + title: "Nieskonfigurowane szablony LLM" + description: "LLM (Large Language Models) to narzędzia sztucznej inteligencji zoptymalizowane do zadań takich jak podsumowywanie treści, generowanie raportów, automatyzacja interakcji z klientami oraz ułatwianie moderowania i analizowania forów." + fake: "Konfiguracja ręczna" + button: "Skonfiguruj" next: title: "Następna" tests: + title: "Przeprowadź test" + running: "Przeprowadzam test..." success: "Sukces!" + failure: "Próba nawiązania kontaktu z modelem zwróciła następujący błąd: %{error}" + hints: + max_prompt_tokens: "Maksymalna liczba tokenów dla promptu. Z reguły powinno to być 50% okna kontekstowego modelu." + display_name: "Nazwa używana do odwoływania się do tego modelu w interfejsie Twojej witryny." + name: "Uwzględniamy to w wywołaniu API, aby określić, którego modelu będziemy używać" + enabled_chat_bot: "Jeśli ta opcja jest włączona, użytkownicy mogą wybrać ten model podczas tworzenia wiadomości prywatnych za pomocą bota AI" providers: google: "Google" fake: "Niestandardowe" + provider_fields: + organization: "Opcjonalny identyfikator organizacji OpenAI" + disable_system_prompt: "Wyłącz wiadomość systemową w promptach" + enable_native_tool: "Włącz obsługę natywnych narzędzi" + provider_order: "Kolejność dostawców (lista rozdzielona przecinkami)" + enable_reasoning: "Włącz rozumowanie (dotyczy tylko Sonnet 3.7)" + reasoning_tokens: "Liczba tokenów użytych do wnioskowania" + disable_temperature: "Wyłącz temperaturę (niektóre modele nie obsługują temperatury)" related_topics: + title: "Powiązane tematy" pill: "Powiązane" ai_helper: title: "Zaproponuj zmiany za pomocą AI" description: "Wybierz jedną z poniższych opcji, a sztuczna inteligencja zasugeruje Ci nową wersję tekstu." selection_hint: "Wskazówka: Możesz także zaznaczyć część tekstu przed otwarciem pomocnika, aby przepisać tylko ten fragment." suggest: "Zasugeruj za pomocą AI" + suggest_errors: + no_suggestions: "Brak dostępnych sugestii" missing_content: "Wprowadź treść, aby wygenerować sugestie." context_menu: trigger: "Zapytaj AI" @@ -199,8 +438,12 @@ pl_PL: regen: "Spróbuj ponownie" confirm: "Potwierdź" discard: "Odrzuć" + changes: "Sugerowane zmiany" custom_prompt: + title: "Niestandardowy prompt" placeholder: "Wprowadź niestandardowy monit..." + submit: "Wyślij prompt" + translate_prompt: "Przetłumacz na %{language}" post_options_menu: trigger: "Zapytaj AI" title: "Zapytaj AI" @@ -209,13 +452,22 @@ pl_PL: copy: "Kopiuj" copied: "Skopiowane!" cancel: "Anuluj" + insert_footnote: "Dodaj przypis" + footnote_disabled: "Automatyczne wstawianie wyłączone, kliknij przycisk kopiowania i edytuj ręcznie." + footnote_credits: "Wyjaśnienie przez AI" + fast_edit: + suggest_button: "Zaproponuj edycję" thumbnail_suggestions: + title: "Sugerowane miniatury" select: "Wybierz" selected: "Wybrany" image_caption: save_caption: "Zapisz" automatic_caption_dialog: + prompt: "Ten post zawiera obrazy bez podpisów. Czy chcesz włączyć automatyczne podpisy przy przesyłaniu zdjęć? (Można to później zmienić w preferencjach)." confirm: "Włącz" + cancel: "Nie pytaj ponownie" + no_content_error: "Najpierw dodaj zawartość, aby wykonać na niej działania AI." reviewables: model_used: "Zastosowany model:" accuracy: "Dokładność:" @@ -223,20 +475,33 @@ pl_PL: back: "Poprzednia" save: "Zapisz" delete: "Usuń" + presets: "Wybierz ustawienie wstępne..." + configure_manually: "Skonfiguruj ręcznie" edit: "Edytuj" + seeded_warning: "To jest wstępnie skonfigurowane na twojej stronie i nie może być edytowane." tests: + title: "Przeprowadź test" + running: "Przeprowadzam test..." success: "Sukces!" + hints: + dimensions_warning: "Po zapisaniu wartość ta nie może zostać zmieniona." display_name: "Nazwa" providers: google: "Google" fake: "Niestandardowe" + provider_fields: + model_name: "Nazwa modelu" semantic_search: "Tematy (semantyczne)" semantic_search_loading: "Wyszukiwanie większej liczby wyników przy użyciu AI" semantic_search_results: toggle: "Wyświetlanie %{count} wyników znalezionych przy użyciu AI" toggle_hidden: "Ukrywanie %{count} wyników znalezionych przy użyciu AI" none: "Przepraszamy, nasze wyszukiwanie AI nie znalazło pasujących tematów" + unavailable: "Wyniki AI są niedostępne" ai_generated_result: "Wynik wyszukiwania znaleziony przy użyciu AI" + ai_artifact: + expand_view_label: "Rozszerz widok" + collapse_view_label: "Wyjdź z trybu pełnoekranowego (przycisk ESC lub Wstecz)" ai_bot: pm_warning: "Wiadomości wysyłane przez chatboty AI są regularnie monitorowane przez moderatorów." cancel_streaming: "Zatrzymaj odpowiedź" @@ -268,6 +533,7 @@ pl_PL: dashboard: title: "Sentiment" sentiment_analysis: + share_chart: "Skopiuj link do wykresu" filter_types: all: "Wszystkie" positive: "Pozytywne" @@ -291,11 +557,23 @@ pl_PL: other: "Ostatnie %{count} godzin" topic: title: "Podsumowanie tematu" + close: "Zamknij panel podsumowania" + topic_list_layout: + button: + expanded: "Rozszerzony" + expanded_description: "z podsumowaniami AI" discobot_discoveries: + main_title: "Odkrycia Discobota" regular_results: "Tematy" + tell_me_more: "Powiedz mi więcej..." + continue_convo: "Kontynuuj rozmowę..." + loading_convo: "Ładowanie konwersacji" collapse: "Zwiń" tooltip: + header: "Wyszukiwanie oparte na AI" + content: "Wyszukiwanie w języku naturalnym obsługiwane przez %{model}" actions: + info: "Jak to działa?" disable: "Wyłącz" review: types: diff --git a/config/locales/server.de.yml b/config/locales/server.de.yml index 82e9ea7c..bd19803b 100644 --- a/config/locales/server.de.yml +++ b/config/locales/server.de.yml @@ -293,6 +293,12 @@ de: web_artifact_creator: name: "Web-Artefakt-Ersteller" description: "KI-Bot, spezialisiert auf die Erstellung interaktiver Web-Artefakte" + summarizer: + name: "Zusammenfasser" + description: "Standard-Persona für die KI-Zusammenfassungen" + short_summarizer: + name: "Zusammenfasser (Kurzform)" + description: "Standard-Persona zur Erstellung von KI-Kurzzusammenfassungen für die Elemente der Themenlisten" topic_not_found: "Zusammenfassung nicht verfügbar, Thema nicht gefunden!" summarizing: "Thema zusammenfassen" searching: "Suche nach: „%{query}“" @@ -412,6 +418,10 @@ de: search_settings: one: "%{count} Ergebnis für „%{query}“ gefunden" other: "%{count} Ergebnisse für „%{query}“ gefunden" + discoveries: + continue_conversation: + title: "Entdeckungsunterhaltung: Suche nach %{query}" + raw: "Bei meiner Suche nach %{query} hast du mir die folgenden Informationen gezeigt:\n\n%{context}\n\nLass uns die Unterhaltung fortsetzen." summarization: configuration_hint: one: "Konfiguriere zunächst die Einstellung `%{setting}`." @@ -435,6 +445,7 @@ de: neutral: "Neutral" llm: configuration: + create_llm: "Du musst einen LLM einrichten, bevor du diese Funktion aktivierst" disable_module_first: "Du musst zuerst %{setting} deaktivieren." set_llm_first: "Stelle zuerst %{setting} ein" model_unreachable: "Wir konnten keine Antwort von diesem Modell abrufen. Überprüfe zuerst deine Einstellungen." diff --git a/config/locales/server.pl_PL.yml b/config/locales/server.pl_PL.yml index 7e792b9c..3854818a 100644 --- a/config/locales/server.pl_PL.yml +++ b/config/locales/server.pl_PL.yml @@ -6,6 +6,10 @@ pl_PL: discourse_automation: + ai: + flag_types: + spam: "Oznacz jako spam i ukryj post" + spam_silence: "Oznacz jako spam, ukryj post i wycisz użytkownika" scriptables: llm_triage: title: Oceniaj posty za pomocą sztucznej inteligencji @@ -55,6 +59,13 @@ pl_PL: ai_embeddings_semantic_search_enabled: "Włącz wyszukiwanie semantyczne na całej stronie." ai_embeddings_semantic_related_include_closed_topics: "Uwzględnij zamknięte tematy w semantycznych wynikach wyszukiwania" ai_embeddings_semantic_search_hyde_model: "Model używany do rozwijania słów kluczowych w celu uzyskania lepszych wyników podczas wyszukiwania semantycznego" + ai_summarization_enabled: "Włącz moduł podsumowania tematu." + ai_summarization_model: "Model używany do podsumowania." + ai_custom_summarization_allowed_groups: "Grupy, które mogą tworzyć nowe podsumowania." + ai_pm_summarization_allowed_groups: "Grupy mogą tworzyć i przeglądać podsumowania w wiadomościach prywatnych." + ai_summary_gists_enabled: "Automatycznie generuj krótkie podsumowania najnowszych odpowiedzi w tematach." + ai_summary_gists_allowed_groups: "Grupy mogą przeglądać sedno dyskusji na liście gorących tematów." + ai_summary_backfill_maximum_topics_per_hour: "Liczba podsumowań tematów do uzupełnienia na godzinę." ai_bot_enabled: "Włącz moduł bota AI." ai_bot_enable_chat_warning: "Wyświetl ostrzeżenie po zainicjowaniu czatu PW. Można je zastąpić, edytując ciąg tłumaczenia: discourse_ai.ai_bot.pm_warning" ai_bot_allowed_groups: "Gdy bot GPT uzyska dostęp do PW, odpowie członkom tych grup." @@ -87,12 +98,15 @@ pl_PL: title: "\U0001F632 Niespodzianka" discourse_ai: ai_artifact: + view_source: "Zobacz źródło" view_changes: "Zobacz zmiany" + change_description: "Zmień opis" unknown_model: "Nieznany model AI" ai_helper: errors: completion_request_failed: "Coś poszło nie tak podczas próby przedstawienia sugestii. Spróbuj ponownie." prompts: + translate: Przetłumacz na %{language} generate_titles: Zaproponuj tytuły tematu proofread: Popraw tekst markdown_table: Wygeneruj tabelę Markdown @@ -101,8 +115,19 @@ pl_PL: illustrate_post: "Zilustruj post" share_ai: read_more: "Przeczytaj pełną transkrypcję" + errors: + not_allowed: "Nie masz uprawnień do udostępniania tego tematu" + failed_to_share: "Nie udało się udostępnić konwersacji" + conversation_deleted: "Udostępniona konwersacja została pomyślnie usunięta" + spam_detection: + flag_reason: "Oznaczono jako spam przez Discourse AI" + silence_reason: "Użytkownik wyciszony automatycznie przez Discourse AI" + invalid_error_type: "Podano nieprawidłowy typ błędu" + unexpected: "Wystąpił nieoczekiwany błąd" + bot_user_update_failed: "Nie udało się zaktualizować użytkownika bota skanującego spam" ai_bot: default_pm_prefix: "[PW bota AI bez tytułu]" + thinking: "Myślenie..." personas: cannot_delete_system_persona: "Person systemowych nie można usunąć, zamiast tego wyłącz je." general: @@ -126,10 +151,15 @@ pl_PL: dall_e3: name: "DALL-E 3" description: "Bot AI specjalizujący się w generowaniu obrazów przy użyciu DALL-E 3" + short_summarizer: + name: "Podsumowanie (forma krótka)" topic_not_found: "Podsumowanie niedostępne, nie znaleziono tematu!" summarizing: "Podsumowanie tematu" searching: "Wyszukiwanie: '%{query}'" tool_options: + update_artifact: + update_algorithm: + description: "Poproś LLM o pełne zastąpienie lub użyj diff do aktualizacji" google: base_query: name: "Podstawowe zapytanie wyszukiwania" @@ -141,6 +171,7 @@ pl_PL: name: "Podstawowe zapytanie wyszukiwania" description: "Podstawowe zapytanie używane podczas wyszukiwania. Przykład: '#pilne' spowoduje dodanie '#pilne' do zapytania wyszukiwania i uwzględnienie tylko tematów z kategorią lub tagiem pilne." tool_summary: + web_browser: "Przeglądaj sieć" random_picker: "Losowy selektor" categories: "Wymień kategorie" search: "Szukaj" @@ -233,5 +264,17 @@ pl_PL: disable_module_first: "Najpierw musisz wyłączyć %{setting}." set_llm_first: "Najpierw ustaw %{setting}" model_unreachable: "Nie mogliśmy uzyskać odpowiedzi od tego modelu. Sprawdź najpierw swoje ustawienia." + embeddings: + cannot_edit_builtin: "Nie możesz edytować wbudowanego modelu." + configuration: + invalid_config: "Wybrałeś nieprawidłową opcję." + llm_models: + missing_provider_param: "%{param} nie może być pusty" + bedrock_invalid_url: "Wypełnij wszystkie pola, aby korzystać z tego modelu." errors: + quota_exceeded: "Przekroczyłeś limit dla tego modelu. Spróbuj ponownie za %{relative_time}." + quota_required: "Musisz określić maksymalną liczbę tokenów lub użyć dla tego modelu" + no_query_specified: Parametr zapytania jest wymagany, podaj go. + no_user_for_persona: Określona persona nie ma powiązanego użytkownika. + persona_not_found: Określona persona nie istnieje. Sprawdź parametry persona_name lub persona_id. prompt_message_length: Wiadomość %{idx} przekracza limit 1000 znaków.