Bugcrowd
Pressetext verfasst von connektar am Fr, 2024-05-03 10:57.Bugcrowd KI-Penetrationstests stärken das Vertrauen in die KI-Einführung
Neues Angebot aus dem KI-Sicherheitsportfolio von Bugcrowd hilft KI-Anwendern, potenzielle Sicherheitslücken frühzeitig zu erkennen
Bugcrowd, Spezialist für Crow-sourced Security, hat die Verfügbarkeit von "AI Pen Testing" auf Basis der Bugcrowd-Plattform vorgestellt, um KI-Anwender dabei zu unterstützen, aktuelle Sicherheitslücken zu erkennen, bevor Bedrohungsakteure sie ausnutzen. AI Pen Testing ist nun Teil des Bugcrowd-Portfolios für KI-Sicherheitslösungen, zusätzlich zu dem kürzlich angekündigten AI-Bias-Assessment-Angebot.
Die Dialogschnittstellen in Large-Language-Model-Anwendungen (LLM) können anfällig für Prompt Injection, Extraktion von Trainingsdaten, Data Poisoning und andere Arten von Angriffen sein. Die Bugcrowd AI Pen Tests wurden entwickelt, um die häufigsten Schwachstellen in diesen Bereichen mit einer Testmethodik aufzudecken, die auf der quelloffenen Vulnerability Rating Taxonomy von Bugcrowd basiert. Diese...
» Weiterlesen | Anmelden oder registrieren um Kommentare einzutragen - 5370 Zeichen in dieser Pressemeldung
Pressetext verfasst von connektar am Mi, 2024-04-17 12:08.
Bugcrowd bietet AI Bias Assessment für LLM-Anwendungen
Neues Angebot im Bugcrowd-Portfolio für KI-Sicherheit nutzt menschliche Kreativität, um Datenverzerrungen zu ermitteln
Bugcrowd, Anbieter von Crowdsourced Security, hat die Verfügbarkeit von AI Bias Assessments als Teil seines Portfolios für AI Safety and Security auf der Bugcrowd-Plattform bekanntgegeben. AI Bias Assessment nutzt die Leistung der Crowd, um Unternehmen und Behörden zu helfen, Large-Language-Model-Anwendungen (LMM) sicher, effizient und vertrauensvoll einzuführen.
LLM-Anwendungen basieren auf algorithmischen Modellen, die auf riesigen Datensätzen trainiert werden. Selbst wenn diese Trainingsdaten von Menschen kuratiert werden, was oft nicht der Fall ist, kann die Anwendung leicht "Datenverzerrungen" widerspiegeln, die durch Stereotypen, Vorurteile, ausgrenzende Sprache und eine Reihe anderer möglicher Verzerrungen der Trainingsdaten verursacht werden. Solche Verzerrungen können dazu führen, dass sich das Modell auf potenziell...
» Weiterlesen | Anmelden oder registrieren um Kommentare einzutragen - 6403 Zeichen in dieser Pressemeldung