Kami mendirikan Anthropic untuk menempatkan keamanan di garis depan penelitian AI dan produk AI. Penelitian kami menginformasikan produk komersial kami, dan model kami adalah beberapa yang paling dapat diandalkan aman dan tahan terhadap penyalahgunaan yang tersedia saat ini. Meskipun API kami masih dalam beta tertutup, kami bekerja untuk meningkatkan filter keamanan kami berdasarkan umpan balik pengguna - dan kami mengharapkan pelanggan komersial kami akan meminta pertanggungjawaban kami ketika fitur keamanan kami gagal.
Namun kami percaya keamanan adalah tanggung jawab bersama. Fitur kami tidak sempurna, dan mitra yang berkomitmen adalah lini pertahanan kedua. Tergantung pada kasus penggunaan Anda, langkah-langkah moderasi akan terlihat berbeda, tetapi berikut adalah beberapa rekomendasi keamanan tambahan:
Gunakan Claude sebagai filter moderasi konten untuk mengidentifikasi dan mencegah pelanggaran.
Untuk produk yang menghadap eksternal, ungkapkan kepada pengguna Anda bahwa mereka berinteraksi dengan sistem AI.
Untuk informasi sensitif dan pengambilan keputusan, mintalah profesional yang berkualifikasi untuk meninjau konten sebelum disebarluaskan kepada konsumen.
Kami mendorong Anda untuk mengirimkan umpan balik atau proposal spesifik kepada kami di [email protected]. Untuk mitra komersial yang sudah ada, kami merekomendasikan bergabung dengan server Discord kami dan bertukar ide dengan sesama pengembang juga.