Secara teori, personalisasi pemasaran harus menjadi win-win solution untuk perusahaan dan pelanggan. Dengan memberikan perpaduan yang tepat antara komunikasi, rekomendasi, dan promosi, maka semuanya dapat disesuaikan dengan selera masing-masing individu dan teknologi pemasaran dapat menghasilkan pengalaman konsumen yang unik dan memuaskan. Apalagi praktik penargetan teknologi semakin canggih belakangan ini. Kemajuan baru dalam mesin pengolah data pintar dan big data membuat personalisasi lebih relevan dan tidak terlalu mengganggu konsumen. Tapi seiring dengan perkembangan ini muncul risiko tersembunyi, yaitu kemampuan sistem otomatis yang ternyata memiliki potensi berbahaya bagi kedua belah pihak.

Photo by Carlos Muza on Unsplash

Dalam penelitian baru ditemukan fakta bahwa terdapat konsep penggunaan harga dinamis dan diskon yang ditargetkan kepada konsumen ditentukan oleh suatu algoritma komputer cerdas. Kisah peringatan tentang jenis praktik pemasaran yang dipersonalisasi ini mencuat pada tahun 2015 oleh Princeton Review. Penelitian ini mengungkapkan bahwa perusahaan persiapan ujian membebani pelanggan dengan kode ZIP yang berbeda dengan harga yang berbeda, dengan perbedaan antara beberapa daerah mencapai ratusan dolar meski semua sesi bimbingannya berlangsung melalui teleconference. Dalam jangka pendek, jenis penetapan harga dinamis ini mungkin tampak menggiurkan untuk meningkatkan pendapatan. Tapi penelitian ini telah secara konsisten menunjukkan bahwa konsumen memandangnya secara inheren tidak adil lalu berlanjut pada tingkat kepercayaan yang rendah dan niat pembelian kembali yang menurun. Terlebih lagi, bias Princeton Review ini memiliki elemen rasial yang cukup mengejutkan dari investigasi tindak lanjut yang dipublikasikan oleh wartawan di ProPublica. Hasilnya menunjukkan bagaimana sistem perusahaan secara sistematis menetapkan harga yang lebih tinggi kepada keluarga Asia daripada orang non-Asia.

Membangun sistem pembelajaran mesin yang adil dan merata

Bahkan perusahaan teknologi dan pakar algoritmik terbesar merasa kesulitan untuk memberikan layanan yang sangat personal sembari menghindari diskriminasi. Beberapa studi telah menunjukkan bahwa iklan untuk peluang kerja bergaji tinggi di platform seperti Facebook dan Google disajikan secara tidak proporsional kepada pria. Dan baru tahun ini Facebook digugat dan terbukti melanggar Undang-Undang Perumahan yang adil karena mengizinkan pengiklan real estat untuk menargetkan pengguna berdasarkan kelas yang dilindungi, termasuk ras, jenis kelamin, usia, dan banyak lagi.

Apa yang terjadi dengan algoritma personalisasi dan mengapa algoritma itu sangat sulit untuk diperjuangkan? Di lingkungan saat ini, dengan perangkat lunak otomatisasi pemasaran dan penargetan ulang otomatis, platform pengujian secara dinamis mengoptimalkan pengalaman pengguna dari waktu ke waktu dan platform iklan yang secara otomatis memilih segmen audiens sehingga mempengaruhi keputusan bisnis yang lebih penting diambil secara otomatis tanpa pengawasan manusia. Dan sementara data yang digunakan pemasar untuk mensegmentasi pelanggan mereka secara inheren tidak bersifat demografis, maka variabel-variabel ini seringkali berkorelasi dengan karakteristik sosial.
Untuk memahami cara kerjanya, anggap perusahaan Anda ingin menggunakan data historis untuk melatih algoritma dengan tujuan mengidentifikasi pelanggan yang paling mudah menerima diskon harga. Jika profil pelanggan yang Anda masukkan ke dalam algoritma berisi atribut yang berkorelasi dengan karakteristik demografis, kemungkinan besar algoritma tersebut akan membuat rekomendasi berbeda untuk grup yang berbeda. Misalnya, seberapa sering kota dan lingkungan dibagi oleh kelas etnis dan sosial dan seberapa sering data penelusuran pengguna dapat dikorelasikan dengan lokasi geografisnya dengan menelusuri alamat IP atau riwayat penelusuran. Bagaimana jika pengguna di lingkungan kulit putih merespons paling kuat upaya pemasaran Anda pada kuartal terakhir? Atau mungkin pengguna di daerah berpenghasilan tinggi paling sensitif terhadap potongan harga. Beberapa fakta ini diketahui terjadi dalam beberapa keadaan bukan karena pelanggan berpenghasilan tinggi tidak mampu membayar harga penuh tetapi karena mereka lebih sering berbelanja online dan tahu untuk menunggu penurunan harga. Algoritma yang dilatih tentang data historis seperti itu akan mengetahui ras atau penghasilan pelanggan, sehingga perusahaan memaksimalkan cara untuk menawarkan lebih banyak diskon kepada orang kulit putih yang kaya.

Untuk menyelidiki fenomena ini, kami melihat lusinan eksperimen penetapan harga e-commerce skala besar untuk menganalisis bagaimana orang-orang di Amerika Serikat merespon berbagai promosi harga. Dengan menggunakan alamat IP pelanggan sebagai perkiraan lokasi mereka, maka dengan mudah dapat mencocokkan setiap pengguna dengan saluran Sensus AS dan menggunakan data publik untuk mendapatkan gambaran tentang pendapatan rata-rata di wilayah mereka. Menganalisis hasil jutaan kunjungan situs web, kita bisa melihat dengan jelas orang-orang di daerah kaya merespon diskon e-commerce lebih kuat daripada di daerah yang lebih miskin. Jadi, algoritma penetapan harga dinamis dirancang untuk menawarkan penawaran kepada pengguna kaya kemungkinan besar akan meresponnya. Melihat fakta ini, kampanye pemasaran mungkin secara sistematis akan menawarkan harga yang lebih rendah untuk individu berpenghasilan tinggi di masa depan.

Apa yang dapat dilakukan perusahaan Anda untuk meminimalkan hasil yang tidak diinginkan secara sosial ini? Satu kemungkinan untuk mitigasi risiko algoritmik adalah pengawasan formal untuk sistem internal perusahaan Anda. Cara semacam ini kemungkinan merupakan proses yang rumit dan melibatkan penilaian akurasi, keadilan, interpretabilitas, dan kekokohan dari semua keputusan algoritmik konsekuensial di organisasi Anda.

Walaupun ini terdengar mahal dalam jangka pendek, tapi bisa jadi ini mungkin bermanfaat bagi banyak perusahaan dalam jangka panjang. Karena “keadilan” dan “bias” sulit untuk didefinisikan secara universal, Mengingat kompleksitas sosial, teknis, dan hukum yang terkait dengan keadilan algoritmik, kemungkinan hal ini akan menjadi pertimbangan untuk memiliki tim ahli internal atau luar yang terlatih dan mencoba menemukan blind spot serta kerentanan dalam setiap proses bisnis yang bergantung pada pengambilan keputusan otomatis.

Karena kemajuan dalam pembelajaran mesin terus membentuk ekonomi kita dan kekhawatiran tentang ketidaksetaraan kekayaan dan keadilan sosial meningkat, maka para pemimpin perusahaan harus menyadari cara-cara di mana keputusan otomatis dapat membahayakan pelanggan dan perusahaan mereka. Menelisik lebih jauh untuk mempertimbangkan apakah kampanye pemasaran otomatis Anda mungkin mendiskriminasi kelompok sosial dan etnis tertentu.

 

Penulis:Alex P. Miller&Kartik Hosanagar

 

Leave a Reply

Your email address will not be published. Required fields are marked *