Piotr Grzesik
Silesia AI #16
21.11.2024
LLMy są świetnym i bardzo potężnym kawałkiem technologii, ale czasem sprawia to, że korzystanie z nich jest problematyczne, ponieważ:
Często, gdy budujemy rozwiązanie komercyjne, pojawiają się wymagania takie jak:
Aby osiągnąć te cele i uniknąć stania się kolejnym viralem, możemy skorzystać z tzw. "guardrails", które pomogą nam:
Często te dwie techniki idą w parze, natomiast dzięki guardrails zyskujemy większą niezależność od działania samego modelu, możemy wychwytywać też problematyczne treści zanim w ogóle prompt trafi do modelu, a także możemy dodatkowo walidować czy filtrować to co model nam wygeneruje.
Funkcjonalność Amazon Bedrock, pozwalająca na definiowanie "guardrails" dla wykorzystywanych modeli. Wspiera m.in. filtrowanie tematów, słów kluczowych, anonimizację danych, blokadę jailbreak/prompt injection.
Oczywiście, Amazon Bedrock Guardrails mimo wygodnej implementacji, ma swoje ograniczenia do platformy Amazon Bedrock. Oprócz niego, dostępne są alternatywy takie jak Guardrails AI czy NeMo Guardrails.