Lewati ke Konten Utama

AI

Matriks Pelingkupan Keamanan AI Generatif

Gambaran Umum

Ketika makin banyak organisasi mengadopsi teknologi AI generatif, pemahaman mengenai implikasi keamanan menjadi amat penting. Disiplin keamanan inti, seperti pengelolaan identitas dan akses, perlindungan data, privasi dan kepatuhan, keamanan aplikasi, dan pemodelan ancaman masih sangat penting untuk beban kerja AI generatif, seperti halnya untuk beban kerja lainnya. Namun, selain menekankan praktik keamanan yang sudah berlangsung lama, penting untuk memahami setiap risiko dan pertimbangan keamanan tambahan yang ditimbulkan oleh beban kerja AI generatif.

Matriks Pelingkupan Keamanan AI Generatif adalah sebuah kerangka kerja lengkap yang dirancang untuk membantu organisasi menilai dan menerapkan kontrol keamanan di seluruh siklus hidup AI. Kerangka kerja ini membagi pertimbangan keamanan ke dalam kategori-kategori tertentu sehingga pendekatan terfokus dapat dilakukan untuk mengamankan aplikasi AI.
 

Matriks Pelingkupan Keamanan AI Generatif

Sebuah kerangka berpikir untuk mengelompokkan berbagai kasus penggunaan

Menentukan ruang lingkup Anda

Langkah pertama adalah menentukan ruang lingkup yang sesuai dengan kasus penggunaan. Ruang lingkup diberi nomor 1–5, yang merepresentasikan tingkat kepemilikan dari yang paling rendah hingga yang paling tinggi yang dimiliki organisasi Anda terhadap model AI dan data yang terkait dengan AI tersebut.

Organisasi Anda menggunakan layanan AI generatif pihak ketiga publik, baik yang gratis maupun berbayar. Aplikasi ini sering kali merupakan aplikasi “kelas konsumen” dan mungkin tidak dibuat untuk keperluan bisnis atau komersial. Pada ruang lingkup ini, Anda tidak memiliki atau melihat data pelatihan atau model, dan Anda tidak dapat mengubah atau meningkatkan model AI. Anda memanfaatkan fungsi API atau langsung menggunakan aplikasi sesuai dengan ketentuan layanan penyedia.

Contoh: Seorang karyawan berinteraksi dengan aplikasi obrolan AI generatif melalui situs web publik untuk menghasilkan ide guna kampanye pemasaran yang akan datang.
 

Organisasi Anda menggunakan aplikasi perusahaan pihak ketiga yang memiliki fitur AI generatif bawaan dan telah menjalin hubungan bisnis dengan vendor tersebut. Aplikasi Ruang Lingkup 2 sering kali memiliki syarat dan ketentuan yang ditujukan bagi pelanggan perusahaan dan dirancang untuk menawarkan perlindungan tambahan.

Contoh: Anda menggunakan aplikasi penjadwalan perusahaan pihak ketiga yang memiliki kemampuan AI generatif bawaan untuk membantu menyusun agenda rapat.
 

Organisasi Anda mengembangkan aplikasinya sendiri dengan menggunakan model fondasi AI generatif pihak ketiga yang ada. Anda langsung mengintegrasikannya dengan beban kerja melalui antarmuka pemrograman aplikasi (API).

Contoh: Anda membuat chatbot dukungan pelanggan yang mengintegrasikan data Anda sendiri menggunakan Retrieval-Augmented Generation (RAG) dan memanfaatkan model fondasi Anthropic Claude melalui API Amazon Bedrock.
 

Organisasi Anda meningkatkan model fondasi AI generatif pihak ketiga yang ada dengan menyempurnakannya melalui data khusus untuk bisnis Anda sehingga menghasilkan model baru yang disempurnakan dan sesuai untuk beban kerja Anda.

Contoh: Anda memerlukan model dengan keahlian domain medis yang mendalam untuk meringkas catatan pasien dalam sistem Catatan Kesehatan Elektronik (EHR). Penyempurnaan bisa digunakan untuk menyelaraskan output sistem agar sesuai dengan gaya yang diharapkan oleh dokter dan memberikan pelatihan sistem tentang istilah yang spesifik sesuai bidang.
 

Organisasi Anda mengembangkan dan melatih model AI generatif dari nol menggunakan data yang Anda miliki atau peroleh. Anda memiliki setiap aspek dari model tersebut.

Contoh: Organisasi Anda bertekad untuk membuat sebuah model AI yang dapat menghasilkan konten video berkualitas tinggi, misalnya dengan merancang solusi khusus untuk interpolasi video gerak super-lambat. Dengan melatih model pada data video khusus, Anda dapat melisensikan teknologi canggih pembuatan video ini ke perusahaan di industri media dan hiburan.
 

Aspek yang harus diprioritaskan

Beban kerja Anda masuk dalam ruang lingkup dan sekarang Anda perlu membuat bisnis Anda berkembang dengan cepat melalui langkah yang aman. Dalam Matriks Pelingkupan Keamanan AI Generatif, kami mengidentifikasi lima disiplin keamanan yang mencakup berbagai jenis solusi AI generatif.

  • Tata kelola dan kepatuhan – Kebijakan, prosedur, dan pelaporan yang diperlukan untuk memberdayakan bisnis sambil meminimalkan risiko.
  • Hukum dan privasi – Persyaratan peraturan, hukum, dan privasi khusus untuk menggunakan atau membuat solusi AI generatif.
  • Pengelolaan risiko – Identifikasi potensi ancaman terhadap solusi AI generatif dan mitigasi yang direkomendasikan.
  • Kontrol – Implementasi kontrol keamanan yang digunakan untuk mengurangi risiko.
  • Ketahanan – Cara merancang solusi AI generatif agar tetap tersedia dan memenuhi perjanjian layanan bisnis (SLA).

Mari kita jelajahi beberapa contoh peluang yang harus Anda prioritaskan.

Pertimbangan Keamanan di Seluruh Ruang Lingkup

Tata kelola dan kepatuhan

Saat mengelola Ruang Lingkup 1 dan 2, sangat penting untuk mematuhi ketentuan layanan, perjanjian lisensi, dan persyaratan kedaulatan data. Untuk aplikasi Ruang Lingkup 1, prioritaskan penggunaan data publik yang tidak bersifat hak milik (non-proprietary), karena penyedia layanan dapat menggunakan data yang dikirim untuk meningkatkan model atau layanan mereka. Aplikasi Ruang Lingkup 2 harus dikembangkan dengan kontrol yang kuat, perlindungan kontrak, dan opsi untuk menolak agar data dengan hak milik dan data sensitif organisasi Anda dapat terlindungi sehingga tidak digunakan dalam pelatihan atau peningkatan model AI. Aplikasi ini biasanya disesuaikan untuk kasus penggunaan korporasi.

Untuk tugas-tugas khusus terkait kebutuhan organisasi atau pelanggan, seperti meringkas data bisnis eksklusif atau sensitif, membuat wawasan unik, atau mengotomatiskan pekerjaan internal, Anda mungkin perlu membuat aplikasi Anda sendiri dari Ruang Lingkup 3 hingga 5. Ruang Lingkup ini dapat dimanfaatkan untuk penggunaan data Anda dalam pelatihan, penyempurnaan, atau sebagai output model. Misalnya, meskipun Anda tidak menyempurnakan atau melatih data Anda ke dalam LLM dari Ruang Lingkup 3, Anda masih dapat menggunakan Retrieval Augmented Generation (RAG), Basis Pengetahuan, dan Agen untuk meningkatkan respons model dan tindakan kontekstual tanpa perlu menyempurnakan model.

Di Ruang Lingkup 4 dan 5, latih model Anda pada data khusus domain. Hindari data sensitif seperti PII. Pastikan bahwa model yang dihasilkan diklasifikasikan pada tingkat sensitivitas data tertinggi yang digunakan selama pelatihan. Akses untuk inferensi model AI harus dibatasi hanya untuk orang yang punya izin sesuai tingkat kerahasiaan data yang digunakan. Untuk data seperti PII atau data transaksional yang sering berubah, pertimbangkan untuk menambahkannya selama proses inferensi model AI menggunakan Retrieval-Augmented Generation (RAG) atau alur kerja berbasis agen. Jangan memasukkannya langsung ke dalam model AI.

Hukum dan privasi

Dari perspektif hukum, penting untuk memahami perjanjian lisensi pengguna akhir (EULA) penyedia layanan, persyaratan layanan (TOS), dan perjanjian kontrak lain yang diperlukan untuk menggunakan layanan mereka di Ruang Lingkup 1 hingga 4. Untuk Ruang Lingkup 5, tim hukum Anda perlu menyediakan persyaratan layanan dan ketentuan kontraktual tersendiri untuk setiap penggunaan eksternal dari model AI Anda. Ruang Lingkup 3 dan Ruang Lingkup 4 juga harus memastikan validasi persyaratan hukum penyedia layanan untuk penggunaan layanan mereka, serta persyaratan hukum penyedia model untuk penggunaan model mereka dalam layanan tersebut.

Selain itu, pertimbangkan masalah privasi jika persyaratan “hak untuk menghapus” atau “hak untuk dilupakan” dari General Data Protection Regulation (GDPR) Uni Eropa berlaku untuk bisnis Anda. Pertimbangkan dengan cermat dampak pelatihan atau menyempurnakan model Anda menggunakan data yang mungkin harus dihapus jika ada permintaan dari pihak tertentu. Satu-satunya cara yang benar-benar efektif untuk menghapus data dari model AI adalah dengan menghapus data dari set pelatihan dan melatih versi baru dari model tersebut. Hal ini cenderung tidak efektif ketika penghapusan data hanya sebagian kecil dari total data pelatihan dan bisa memakan biaya besar, tergantung ukuran model Anda.

Manajemen risiko

Walaupun aplikasi berbasis AI memiliki kemiripan dengan aplikasi tradisional, aplikasi yang berinteraksi dengan model bahasa besar (LLM) memerlukan kewaspadaan ekstra dan mekanisme pengamanan khusus. Penting untuk mengidentifikasi risiko terkait beban kerja AI generatif dan mulai merancang langkah mitigasi.

Identifikasi risiko umumnya dapat dilakukan melalui penilaian risiko dan pemodelan ancaman. Untuk Ruang Lingkup 1 dan 2, evaluasi risiko yang berasal dari penyedia pihak ketiga dan pahami strategi mitigasi risiko mereka. Anda juga harus mengenali tanggung jawab manajemen risiko Anda sendiri sebagai konsumen layanan.

Untuk Ruang Lingkup 3, 4, dan 5, terapkan pemodelan ancaman yang mengatasi risiko keselamatan AI dan keamanan data, dengan fokus pada ancaman LLM unik seperti injeksi prompt. Hal ini melibatkan pembuatan input yang dapat memanipulasi respons LLM, yang berpotensi menyebabkan pelanggaran data atau akses tidak sah. Panduan terbaru dari NIST, MITRE, dan OWASP mengidentifikasi injeksi prompt sebagai ancaman utama, sebanding dengan serangan injeksi tradisional seperti SQL. Lakukan mitigasi risiko dengan menerapkan otorisasi spesifik dan penyaringan data sebelum data dikirim ke LLM, dan gunakan Pagar Pembatas Bedrock untuk perlindungan tambahan.

Ancaman yang muncul dalam AI generatif memerlukan adaptasi langkah-langkah keamanan siber tradisional dan kolaborasi erat dengan tim pengembangan untuk memetakan ancaman secara efektif dan menetapkan praktik terbaik yang sesuai.

Kontrol

Menerapkan kontrol yang kuat sangat penting untuk mematuhi persyaratan kepatuhan, kebijakan, dan keamanan sehingga mengurangi risiko yang terkait dengan beban kerja AI generatif. Salah satu pertimbangan utama adalah mengelola identitas dan akses ke model Anda. Tidak seperti basis data tradisional yang menawarkan kontrol keamanan spesifik, model fondasi tidak memiliki konsep kontrol akses ke data yang disimpan dalam model atau data yang disediakan pada waktu inferensi. Oleh karena itu, sangat penting menerapkan kontrol akses berbasis prinsip hak akses paling rendah pada data sebelum data tersebut digunakan sebagai konteks dalam permintaan inferensi ke model AI.

Untuk mencapai hal tersebut, Anda dapat memanfaatkan lapisan aplikasi yang berinteraksi dengan model melalui titik akhir seperti Amazon Bedrock. Lapisan ini harus menggabungkan solusi identitas seperti Amazon Cognito atau Pusat Identitas AWS IAM untuk mengautentikasi dan mengotorisasi pengguna. Dengan menyesuaikan akses berdasarkan peran, atribut, dan komunitas pengguna, Anda dapat membatasi tindakan tertentu dan membantu memastikan bahwa data sensitif dilindungi.

Selain itu, seiring berkembangnya beban kerja AI Anda, penting untuk terus mengevaluasi dan memperbarui kontrol Anda agar dapat beradaptasi dengan ancaman baru dan perubahan sensitivitas data. Menggabungkan teknik canggih seperti Retrieval-Augmented Generation (RAG) memudahkan Anda untuk menyediakan data waktu nyata tanpa mengorbankan integritas model. Strategi ini, jika dikombinasikan dengan pemodelan ancaman yang berkelanjutan, dapat membantu menghasilkan lingkungan yang aman dan sesuai untuk aplikasi AI generatif Anda. 

Ketahanan

Ketersediaan adalah komponen kunci keamanan seperti yang disebut dalam konsep dasar informasi C.I.A. (C.I.A Triad). Penting untuk membangun aplikasi yang tangguh guna memenuhi persyaratan ketersediaan dan kelangsungan bisnis organisasi Anda. Untuk Ruang Lingkup 1 dan 2, Anda harus memahami bagaimana tingkat ketersediaan penyedia selaras dengan kebutuhan dan harapan organisasi Anda. Pertimbangkan dengan cermat bagaimana gangguan dapat memengaruhi bisnis Anda jika model dasar, API, atau lapisan presentasi tidak tersedia. Selain itu, pertimbangkan cara prompt dan penyelesaian kompleks dapat memengaruhi kuota penggunaan, atau dampak penagihan yang mungkin dimiliki aplikasi.

Untuk Ruang Lingkup 3, 4, dan 5, pastikan Anda menetapkan batas waktu yang sesuai untuk memperhitungkan prompt dan penyelesaian yang kompleks. Anda mungkin juga ingin melihat ukuran input prompt untuk batas karakter yang dialokasikan dan ditentukan oleh model Anda. Pertimbangkan juga praktik terbaik yang ada untuk desain tangguh seperti backoff dan percobaan ulang serta pola sakelar pemutus daya untuk mencapai pengalaman pengguna yang diinginkan. Saat menggunakan basis data vektor, disarankan untuk memiliki konfigurasi ketersediaan tinggi dan rencana pemulihan bencana agar tahan terhadap mode kegagalan yang berbeda.

Fleksibilitas instans untuk pipeline model inferensi dan pelatihan merupakan pertimbangan arsitektur penting, selain kemungkinan untuk memesan atau menyiapkan sumber daya komputasi terlebih dahulu bagi beban kerja yang sangat kritis. Saat menggunakan layanan terkelola seperti Amazon Bedrock atau SageMaker, Anda harus memvalidasi ketersediaan AWS Region dan paritas fitur saat menerapkan strategi deployment multi-Wilayah. Demikian pula untuk dukungan multi-Wilayah pada beban kerja Ruang Lingkup 4 dan 5, Anda harus memperhitungkan ketersediaan data penyempurnaan atau pelatihan di seluruh Wilayah. Jika Anda menggunakan SageMaker untuk melatih model di Ruang Lingkup 5, gunakan titik pemeriksaan untuk menyimpan kemajuan saat Anda melatih model. Hal ini akan membantu Anda melanjutkan pelatihan dari titik pemeriksaan terakhir yang disimpan, jika perlu.

Pastikan untuk meninjau dan menerapkan praktik terbaik ketahanan aplikasi yang ada dan ditetapkan di Hub Ketahanan AWS dan dalam Pilar Keandalan dan Pilar Keunggulan Operasional dari Kerangka Kerja Well-Architected.