S­o­s­y­a­l­ ­a­ğ­ ­T­u­m­b­l­r­,­ ­A­p­p­l­e­ ­A­p­p­ ­S­t­o­r­e­’­d­a­ ­k­a­l­m­a­k­ ­i­ç­i­n­ ­y­e­n­i­ ­d­e­ğ­i­ş­i­k­l­i­k­l­e­r­ ­y­a­p­ı­y­o­r­

S­o­s­y­a­l­ ­a­ğ­ ­T­u­m­b­l­r­,­ ­A­p­p­l­e­ ­A­p­p­ ­S­t­o­r­e­’­d­a­ ­k­a­l­m­a­k­ ­i­ç­i­n­ ­y­e­n­i­ ­d­e­ğ­i­ş­i­k­l­i­k­l­e­r­ ­y­a­p­ı­y­o­r­


San Francisco: Mikroblog ve sosyal ağ sitesi Tumblr onayı ile yıllarca süren bir mücadele ile karşı karşıya kalan iOS Uygulama mağazası, gündemde kalabilmek için yeni değişiklikler yaptıklarını söyledi. Apple Uygulama Mağazası.

2018’de Tumblr’ın iOS uygulaması çocuk cinsel istismarı materyali (CSAM) politikası kapsamında App Store’dan kaldırılmıştır.

Bir ay sonra platform, tüm porno ve diğer müstehcen içeriği yasaklayarak tepki gösterdi ve bu da aylık yüzde 29 trafik azalmasına neden oldu.

The Verge, o zamandan beri platformun web trafiğinin nispeten durgun kaldığını bildirdi.

“İçeride kalmamız için elmaApp Store’da ve Tumblr iOS uygulamamızın kullanılabilir olması için hassas içerikle ilgili politikalarına daha uyumlu olmamıza yardımcı olacak değişiklikler yapmamız gerekiyordu,” dedi Tumblr son bir blog gönderisinde.

Birçok Tumblr kullanıcısı, deneyimleri hakkında anonim olarak konuşmak için platforma geliyor.

Platform, “iOS uygulamamız aracılığıyla Tumblr’a erişenleriniz için, bugünden itibaren belirli hassas içerik türlerini içerebilen arama terimleri ve önerilen içerik için bazı farklılıklar görebileceğinizi paylaşmak istedik” dedi.

Platform, “Apple’ın App Store Yönergelerine uymak için, iOS uygulamasını kullanırken potansiyel olarak hassas içerikle ilgili olarak erişebileceklerinizi yakın vadede ayarlamamız gerekiyor” dedi.

Apple’ın App Store’unda kullanılabilir durumda kalabilmek için şirket, Apple yönergelerine uymak için hassas içeriğin ne olduğu ve kullanıcılarının buna erişim şeklinin tanımını genişletmek zorunda kaldı.

Tumblr, “Bazılarınız için bu değişikliklerin çok sinir bozucu olabileceğini anlıyoruz – bu hayal kırıklığını anlıyoruz ve bu değişikliklerin neden olabileceği herhangi bir aksama için üzgünüz” dedi.

Apple’ın CSAM özelliği, çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumayı amaçlamaktadır.

Çocukların Cinsel İstismarı Malzemesi (CSAM) için kullanıcıların iCloud Fotoğrafları kitaplıklarını tarama, cinsel içerikli fotoğraflar alırken veya gönderirken çocukları ve ebeveynlerini uyarmak için İletişim Güvenliği ve Siri ve Arama’da genişletilmiş CSAM kılavuzu gibi özelliklerin bir parçasıdır.

FacebookheyecanLinkedin


.



genel-9

Popular Articles

Latest Articles