Bilgisayarda Rasgele Sayı Nasıl Üretilir? Toplumsal Cinsiyet, Çeşitlilik ve Sosyal Adalet Perspektifinden
Hadi bunu düşünelim: “Bilgisayarda rasgele sayı nasıl üretilir?” Konu, birçoğumuz için teknik bir mesele olabilir. Ancak, bu kadar basit bir sorunun, toplumsal cinsiyet, çeşitlilik ve sosyal adalet gibi daha geniş konularla nasıl ilişkili olabileceğini hiç düşündünüz mü? Her şeyden önce, rasgele sayı üretme işleminde kullanılan algoritmalar ve sistemler yalnızca matematiksel temellere dayanmaz. Bu sistemlerin tasarımı ve işleyişi, toplumsal bağlamı da şekillendirebilir. Gerçek hayatta sokakta, iş yerinde, hatta toplu taşımada fark ettiğim şeylerden yola çıkarak, bu durumu biraz daha açmak istiyorum.
Rasgele Sayı Üretmenin Temelleri: Matematik ve Kodlama
Rasgele sayı üretimi, bilgisayarlarda genellikle pseudo-random number generator (PRNG) adı verilen algoritmalarla yapılır. Bu algoritmalar, matematiksel bir formül veya başlangıç değeri (seed) kullanarak, rastlantısal gibi görünen ama aslında bir kurala dayanan sayı dizileri üretir. Gerçekten tamamen rastgele sayılar elde etmek, fiziksel bir olay gerektirdiğinden bilgisayarlar yalnızca pseudo-random sayılar üretebilir.
Ancak bu kadar basit bir algoritma bile, sistemin nasıl tasarlandığına göre farklı toplumsal etkiler yaratabilir. Bu yazımda, bu teoriyi günlük yaşamla nasıl ilişkilendirebileceğimize bakalım.
Algoritmaların Toplumsal Cinsiyetle İlişkisi
Dijital sistemler ve yazılımlar, genellikle daha önce de bahsettiğim gibi matematiksel temeller üzerine inşa edilir. Ancak burada bir noktayı unutmamalıyız: Bu sistemleri tasarlayan insanlar, içinde bulundukları toplumsal yapının birer yansımasıdır. Geçmişte teknoloji sektörü büyük ölçüde erkek egemen bir alandı ve bu durum, algoritmaların tasarımında da kendini gösterdi. Örneğin, bazı algoritmalar toplumsal cinsiyet ayrımcılığına ya da ırkçılığa dayalı sonuçlar doğurabiliyor. Bu, rasgele sayı üretme algoritmalarında da geçerli olabilir.
Yıllar önce bir sivil toplum etkinliğinde, teknoloji dünyasında kadınların çok daha az yer bulduğuna dair yapılan bir konuşmaya katıldım. Bir yazılımcı, kadınların kod yazarken “duygusal” tepkiler verdiğini savunmuştu. Bu tür görüşler, bilinçaltında bile toplumsal cinsiyet kalıplarının ne kadar yerleşik olduğunu gösteriyor.
Bu bağlamda, algoritmaların sadece teknik olmaktan çıkıp, bir kültürün yansıması haline geldiğini söyleyebiliriz. Bilgisayarlar ve algoritmalar, toplumsal normların ve klişelerin pekişmesine neden olabilecek bir araç haline gelebilir. Rasgele sayıların üretildiği bir sistemde bile, “rastlantı”nın nasıl bir bakış açısına dayandığı önemli bir sorudur. Örneğin, bir algoritma, rastgele bir kullanıcı seçme işlemi yapıyorsa, eğer bu sistem yeterince çeşitliliğe sahip değilse, her zaman daha az temsil edilen toplulukları dışlayabilir.
Çeşitliliğin Algoritmalara Yansıması
Bir arkadaşımın evinde, bazı bilgisayar bilimcilerinin “çeşitliliği” tartıştığına tanık oldum. Kişisel verilerin ve toplumsal farklılıkların algoritimlerde nasıl yanlış yansıtılabileceği üzerine çok ilginç bir sohbetti. Bu sohbetin aklımda kalmasındaki en önemli şey, algoritmaların çeşitliliğe ne kadar duyarsız olduğu gerçeğiydi. “Rasgele sayı üreticisi” gibi bir konuda bile çeşitliliği düşünmek aslında ne kadar önemli? Eğer bir sistem rastgele seçim yapıyorsa, seçimin daha adil ve dengeli olmasını sağlamak adına farklı demografik grupların yeterince temsil edilmesi gerekir.
Mesela, bir sosyal medya platformu kullanıcıları rastgele seçerken, eğer sadece belirli bir grup (örneğin, şehirdeki daha üst sınıfa ait olanlar) sürekli olarak öne çıkıyorsa, sistemin kendisi, bu çeşitliliği yansıtmakta başarısız olmuş demektir. Bu, toplumsal eşitsizlikleri daha da derinleştirebilir. Kısacası, bir algoritmanın sadece matematiksel değil, sosyal bir sorumluluğu da vardır. Bu, özellikle de sosyal adalet perspektifinden bakıldığında, çok önemli bir konu.
Sosyal Adalet: Rasgele Sayıların Adaletsizliği
Toplumsal cinsiyet ve çeşitlilikten bahsettik, ama bir de sosyal adalet boyutuna bakalım. Bilgisayarda üretilen bir rasgele sayı, bazen insan hayatının yönünü etkileyebilecek kararlar almak için kullanılabiliyor. Mesela devlet ihalelerinde, bir eğitim kurumunun bursluluk sürecinde ya da bir sağlık araştırmasında kullanılan “rasgele” seçimler, toplumsal eşitsizliklere daha fazla katkı sağlayabilir. Eğer sistemde yer alan algoritmalar, daha düşük gelirli gruplara veya dezavantajlı kesimlere dair veri eksiklikleri taşıyorsa, bu durum toplumsal adaletin daha da zedelenmesine neden olabilir.
Bir başka örnek, İstanbul’daki toplu taşıma araçlarında gördüğüm bir sahneyle bağlantılı: Geçenlerde metrobüste, elinde telefonuyla oturan ve önündeki koltukta “rastgele” yer seçen bir grup insan vardı. Bu insanlar, yaşadıkları mahalleye, gelir düzeylerine ya da sadece günlük yaşamlarına göre, aynı İstanbul’da farklı bir deneyim yaşadıklarını bilmiyorlar. Hatta belki de bazıları hiç o koltukları görmemiş bile olabilir. Teknoloji, rastgele sayı üretme gibi bir araçla bile sosyal eşitsizliği pekiştirebilir. Bu küçük ama çok anlamlı bir ayrım, insanların daha geniş bir toplumsal yapıda kendilerini nasıl konumlandırdıkları hakkında çok şey söylüyor.
Sonuç: Bilgisayarların Düşüncelerinin Toplumsal Yansımaları
Bugün bilgisayarda rasgele sayı üretmek, belki de teknolojinin sosyal etkileriyle ilgili en dikkat çekici örneklerden biri. Bu basit gibi görünen işlem, aslında çok daha derin bir toplumsal meseleyi açığa çıkarıyor. Algoritmalar, bazen sadece teknik araçlar değildir; onları tasarlayan insanlar ve onları kullanan toplumlar, daha geniş bir kültürün yansımasıdır. Bu yazıyı yazarken, kendimi her zamankinden daha fazla bu bağlantıyı düşünürken buluyorum: Teknolojinin, toplumsal cinsiyet eşitsizlikleri, çeşitlilik ve sosyal adalet konusundaki rolü, aslında hiçbir zaman göründüğü kadar masum olmayabilir.
Günlük yaşamda bile karşılaştığımız toplumsal eşitsizlikler, bilgisayarların ürettiği “rasgele” sayılarla nasıl kesişiyor? Bu konuda daha fazla düşünmek ve tartışmak, belki de toplumsal sistemleri daha adil hale getirmek için yapmamız gereken bir ilk adım olabilir.