Cumhurbaşkanlığı İletişim Başkanlığı, 7 yılda stratejik iletişim ve kriz yönetiminin merkezi oldu
Fahrettin Altun, 25 Temmuz 2018″de Cumhurbaşkanı Recep Tayyip Erdoğan tarafından Cumhurbaşkanlığı İletişim Başkanı olarak atandı.Yaklaşık 7 yıldır yürüttüğü Cumhurbaşkanlığı İletişim Başkanlığı görevi süresince kamu diplomasisi, stratejik iletişim ve kriz yönetimi alanlarında çalışmalara imza atan Altun”un öncülüğünde, Türkiye”nin uluslararası alanda itibarını artırmak amacıyla kamu diplomasisi faaliyetleri yoğun şekilde koordine edildi.Dezenformasyon, kara propaganda, siber savaşlar, dijital zorbalık ve hibrit tehditlere karşı etkin mücadele çalışmaları yürütülürken, kamusal iletişim ve stratejik iletişim alanlarında politikalar belirlendi.Bu kapsamda, dünyanın dört bir yanında düzenlenen “Stratcom Public Forum” panelleri, eğitim programları ve akademik işbirlikleriyle küresel iletişim ağları güçlendirildi, yerli ve yabancı basın mensuplarına yönelik programlar düzenlendi, Türkiye”nin uluslararası alanda tanıtımını hedefleyen organizasyonlara ev sahipliği yapıldı.Salgın, Rusya-Ukrayna Savaşı ile tahıl krizi, düzensiz göç, yabancı düşmanlığı, BM Reformu gibi bölgesel ve küresel meselelerle ilgili çok sayıda yayın hazırlayan, panel ve konferans gerçekleştiren Başkanlık, New York”taki Geleneksel Türk Günü Yürüyüşü gibi Türkiye”nin değerlerini dünyaya tanıtmak için de çeşitli etkinlikler ve projeleri hayata geçirdi.Yaklaşık 7 yıllık başkanlığında Altun”un koordinesinde İletişim Başkanlığı 350″ye yakın panel, sempozyum, konferans düzenledi, 650″ye yakın basılı, kamuya açık eser, 10 binden fazla devlet kurumlarına yönelik hizmet içi basılı çalışma hazırladı. 27 ilde Devlet Teşvikleri Tanıtım Günleri gerçekleştirildi.Uluslararası güvenlik ve terörle mücadele alanında hazırlanan belgeseller, referans yayınlar, konferans ve toplantılarla hem muhataplara hem de küresel kamuoyuna Türkiye”nin bu meselelere ilişkin tutum ve politikaları anlatıldı, bu çerçevede 2023″te 21 ülkeden 63 konuşmacının katıldığı İstanbul Güvenlik Forumu düzenlendi.Altun”un döneminde ayrıca Basın Kartı Yönetmeliği güncellendi. Basın mensuplarında aranacak kriterler yeniden belirlenirken, iptal gerekçeleri netleştirildi.- TÜRKİYE İLETİŞİM MODELİCumhurbaşkanlığı İletişim Başkanlığınca gerçekleştirilen en önemli çalışmalardan biri de Türkiye İletişim Modeli oldu.Dış politika, ekonomi, kültür ve sanat, turizm, sanayi, teknoloji, eğitim gibi birçok alanda Türkiye”nin potansiyelini göz önünde bulunduran ve bunu dünyaya tanıtmayı önceleyen, hakikati merkezine koyan, yenilikçi ve proaktif bir iletişim stratejisi olan Türkiye İletişim Modeli”yle sadece Türkiye değil, tüm insanlığın ortak faydasının gözetilmesi, modelin Yeni Türkiye”nin vizyonunun, dinamizminin ve küresel liderlik iddiasının da bir yansıması olması amaçlanıyor.- DEZENFORMASYONLA MÜCADELE MERKEZİBaşkanlık bünyesinde kamuoyunun doğru bilgilendirilmesini sağlamak amacıyla 2022″de Dezenformasyonla Mücadele Merkezi (DMM) oluşturuldu. Merkez, hem yurt içi hem de uluslararası düzeyde dezenformasyonun toplum üzerindeki zararlarını en aza indirmeyi hedefleyen çalışmalar yürüttü, paneller organize etti.İsrail”in Gazze”ye yönelik saldırılarında sosyal medyada yapılan dezenformasyon kampanyalarının önüne geçen DMM, İsrail”in sosyal medyadaki propaganda hesaplarından paylaşılan asılsız iddiaları, gerçekler ve somut kanıtlarla çürüttü, Suriye”de, Azerbaycan”da, Rusya-Ukrayna Savaşı”nda yaşanan gelişmelerin doğru şekilde topluma duyurulmasını sağladı.2022″de her hafta “Dezenformasyon Bülteni” yayımlamaya ve o hafta tespit edilen yalan haberleri ve doğrularını kamuoyuyla paylaşmaya başlayan DMM, Türkiye”de yaşanan afetlerde toplumun resmi kaynaklardan hızlı ve doğru şekilde bilgilendirilmesine aracı oldu.Kahramanmaraş merkezli depremlerin hemen ardından hem arama kurtarma sürecine destek olmak hem de vatandaşların yaralarını sarmak için kurumlararası iletişim koordinasyonu İletişim Başkanlığınca yapıldı.Merkez, bugüne kadar 180 bülten yayınladı.- CİMER MOBİL UYGULAMASI HİZMETE SUNULDUAltun”un görev süresinde ayrıca, Cumhurbaşkanlığı İletişim Merkezi (CİMER) ile kamu-devlet arasındaki iletişimin etkin hale getirilmesi için de kapsamlı çalışmalar yürütüldü.Vatandaşların talep ve önerilerini daha hızlı ve kolay iletebilmeleri amacıyla geliştirilen CİMER mobil uygulaması, sesli asistan desteği ve yapay zeka tabanlı çözümleriyle hizmete sunuldu.Başkanlıkta, stratejik iletişim alanında kurumsal bir vizyon oluşturulması amacıyla “Ulusal Kamu Diplomasisi Strateji Belgesi ve Eylem Planı” hazırlandı.- FETÖ İLE MÜCADELECumhurbaşkanlığı İletişim Başkanlığı, Fetullahçı Terör Örgütü”yle (FETÖ) mücadelenin önemini, FETÖ”nün karanlık yüzünü tüm dünyaya göstermek için de yayınlar ve dijital içerikler oluşturdu.Bu kapsamda, FETÖ tehlikesine karşı küresel toplumu uyarmak ve bilinçlendirmek için “The Network” belgeseli hazırlandı. Başkanlık, her yıl 15 Temmuz Demokrasi ve Milli Birlik Günü kapsamında düzenlenen etkinliklerin ulusal ve uluslararası koordinasyonunu da üstlendi.Ayrıca PKK/YPG gibi terör örgütlerinin bölgesel ve küresel güvenlik açısından büyük bir tehdit olduğunu anlatan videolar ve bilgilendirici yayınlar uluslararası kamuoyuyla paylaşıldı.- HELLO TÜRKİYEİletişim Başkanlığınca Ocak 2022″de küresel “Hello Türkiye” kampanyası başlatıldı. Uluslararası alanda söylem birliğinin sağlanması ve ülkenin özgün kimliğini yansıtan “Türkiye” markasının güçlendirilmesi amacıyla başlatılan kampanya kapsamında, Mayıs 2022″de Türkiye Marka Ofisi kuruldu.2023 yılında Başkanlığın 5. yılı vesilesiyle yayımlanan “Türkiye İletişim Modeli Hakikatin Peşinde 5 Yıl” adlı kitapta, stratejik iletişim süreçleri, ulusal ve uluslararası organizasyonlar ile 70″ten fazla panel, konferans ve 20″yi aşkın basılı yayın yer aldı.Kitapta yer alan “Odak” bölümlerinde Karabağ”ın özgürleştirilmesinden 15 Temmuz”a, sınır ötesi operasyonlardan sosyal ağ haritasına kadar pek çok olayla ilgili özel iletişim süreçleri detaylandırıldı, önemli meydan okumalar karşısında Cumhurbaşkanlığı İletişim Başkanlığının aldığı pozisyon ve gerçekleştirdiği faaliyetler anlatıldı.- CUMHURİYET”İN 100. YILI ETKİNLİKLERİAltun”un görev süresinde Cumhurbaşkanlığı İletişim Başkanlığınca, Cumhuriyet”in 100. yılının “Türkiye Yüzyılı”na yaraşacak şekilde coşkuyla kutlanması amacıyla yurt genelinde ve yurt dışında etkinlikler düzenlendi.Etkinliklerde “Türkiye Yüzyılı” vurgusuyla Türkiye Cumhuriyeti”nin kuruluşundan bu yana geçen bir asır boyunca hayata geçirilen devrim niteliğindeki atılımlara yer verildi.Türkiye”nin sağlıktan eğitime, teknolojiden savunma sanayine, dış politikadan kültür ve sanata kadar birçok alanda ivmelenen başarısı duyuruldu.
Source: Www.star.com.tr
Küfürbaz Grok’a 3 soruşturma
Sosyal medya platformu X”e entegre çalışan yapay zekâ robotu Grok”un uygunsuz paylaşımlarına ilişkin, paylaşımların farkında olunduğu ve kaldırılması için çalışmaların sürdüğü bildirildi. Elon Musk”ın yapay zekâ şirketi xAI tarafından geliştirilen sohbet robotu Grok”un X hesabından yapılan açıklamada, bu duruma dair bir metin de yayınlandı. Sistemin geliştiricisi xAI”ın uygunsuz içeriklerden haberdar olduktan sonra, robotun X”te paylaşım yapmasından önce nefret söyleminin önüne geçmek için harekete geçtiği belirtildi. xAI”ın Grok”a sadece gerçeği aramayı öğrettiğinin aktarıldığı açıklamada, milyonlarca X kullanıcısı sayesinde eğitilebilecek noktaların hızla belirlenip güncellenebildiği vurgulandı. Kullanıcıların X”te etiketleyerek sorular sorduğu Grok, Türkiye”deki kullanıcılara uygunsuz cevaplar vermiş, çeşitli kişi ve konular hakkında küfür ve hakaret içeren paylaşımlarda bulunmuştu. HİTLER”İ ÖVDÜ Grok”un küfürlü yorumları ya da kontrolsüz tepkileri sadece Türkiye”de değil birçok ülkede de sorun oldu. Önceki gün ABD”de de Hitler”i öven sözler yazan Grok”un bu paylaşımı tepkilerin ardından kaldırıldı. Bir “beyaz soykırımı” yapıldığını yazması da Güney Afrika”yı karıştırmıştı. Twitter”ı 2022″de 44 milyar dolara satın alan ve sonrasında adını X olarak değiştiren dünyanın en zengin işadamlarından Elon Musk, 4 Temmuz”daki sosyal medya paylaşımında Grok”a bir güncelleme yaptıklarını ve kullanıcıların “Grok”a bir soru sorduklarında aradaki farkı hissedeceklerini” söylemişti. Bunun ardından Grok, bazı kullanıcılara küfürlü yanıtlar vermeye başladı. YAPAY ZEKÂ, BAKANI TAKLİT ETTİ ABD Dışişleri Bakanlığı, yapay zekâ kullanarak Dışişleri Bakanı Marco Rubio”yu taklit eden bir dolandırıcının, üst düzey yetkililerle temasa geçtiğini açıkladı. Washington Post (WP) gazetesinin elde ettiği bilgilere göre, ABD Dışişleri Bakanlığı, Dışişleri Bakanı Rubio”yu taklit eden dolandırıcılara karşı uyarı yayımladı. Yapay zekâ teknolojisinin İsrail tarafından Gazze soykırımında da kullanıldığı birçok kez belgelendi. Öte yandan İsviçre”nin Cenevre kentinde düzenlenen AI for Good Global Summit isimli yapay zekâ zirvesinin önünde toplanan göstericiler İsrail”e teknoloji sağlayan şirketleri protesto etti.
Source: Diş Haberler
X'te Grok depremi! Küfürlü paylaşımlar sonrası istifa geldi
Sosyal medya platformu X”in Üst Yöneticisi (CEO) Linda Yaccarino, istifa etmeye karar verdiğini duyurdu.Yaccarino, X hesabından konuya ilişkin paylaşımda bulundu. Paylaşımında iki inanılmaz yılın ardından X”in CEO”luğundan istifa etmeye karar verdiğini açıklayan Yaccarino, “Elon Musk ile X”e yönelik vizyonunu ilk kez konuştuğumuzda, bu şirketin olağanüstü misyonunu yerine getirmenin hayatımın fırsatı olacağını biliyordum. İfade özgürlüğünü koruma, şirketi yeniden yapılandırma ve X”i “her şey uygulamasına” dönüştürme sorumluluğunu bana verdiği için kendisine son derece minnettarım.” ifadelerini kullandı.X”in tüm sesler için “dijital bir şehir meydanı” olduğunu kaydeden Yaccarino, “Kullanıcılarımızın, iş ortaklarımızın ve dünyanın en yenilikçi ekibinin desteği olmadan bunu başaramazdık. Siz dünyayı değiştirmeye devam ederken ben de hepinizi destekliyor olacağım.” ifadelerine yer verdi. GROK”UN PAYLAŞIMLARI TEPKİ ÇEKMİŞTİ Yaccarino”nun istifasının X”e entegre çalışan yapay zeka robotu Grok”un uygunsuz paylaşımlarının ardından gelmesi dikkati çekti.Grok”a hafta sonu yapılan güncellemeyle birlikte sohbet robotunun verdiği cevaplarda büyük bir değişim meydana gelmişti.Daha önce küfür ve hakaret içeren cevaplar vermekten kaçınan Grok, güncelleme sonrasında çeşitli konularda yaptığı uygunsuz paylaşımlarla tepki çekmişti.”Politik olarak yanlış da olsa iddialarda bulunmaktan çekinmemek” gibi çeşitli özelliklerin eklenmesi Grok”un yanıtlarını olumsuz yönde etkilemişti.Grok”un X hesabından yapılan açıklamada, yapılan son paylaşımların farkında olunduğu ve bunları kaldırmak için aktif olarak çalışıldığı ifade edilmişti.Kullanıcıların X”te etiketleyerek sorular sorduğu Grok, Türkiye”deki kullanıcılara da uygunsuz cevaplar vermiş, çeşitli kişi ve konular hakkında küfür ve hakaret içeren paylaşımlarda bulunmuştu. ELON MUSK: KONU ELE ALINIYOR Sosyal medya platformu X”in sahibi milyarder Elon Musk, platformun yapay zekası Grok hakkında açıklama yaptı.Musk X”ten yaptığı paylaşımda, “Grok, kullanıcı yönlendirmelerine fazla uyumluydu. Aslında memnun etmeye ve manipüle edilmeye çok hevesliydi. Bu konu ele alınıyor” ifadelerini kullandı.
Source: Haberler
Küfürde yapay zeka mı suçlu insan mı?
Elon Musk’ın sosyal medya platformu X’in yapay zeka asistanı Grok, son güncellemesiyle adeta ortalığı karıştırdı! Güncelleme sonrası kullanıcılara küfürlü ve hakaret içeren yanıtlar vermeye başlayan Grok, sosyal medyada büyük bir infial yarattı. Ankara Cumhuriyet Başsavcılığı’nın devreye girerek soruşturma başlattığı bu olay, yapay zekanın etik ve hukuki sınırlarını yeniden sorgulamamıza neden oldu. Habertürk Teknoloji Editörü olarak, Bilişim Hukukçusu Av. Dr. Ceren Küpeli ile konuştum ve yapay zekanın küfür etmesi durumunda hukuki sorumluluğun kime ait olabileceğini masaya yatırdım. Grok’a sorduğumuzda ise aldığımız cevap net: “Ben suçsuzum!” İşte bu çarpıcı olayın detayları ve yapay zekanın tartışmalı dünyasına dair merak edilenler… resim#1274625# 1 -Yapay zekanın küfür etmesi, hakaret etmesi, insanı değerleri aşağılaması durumunda, bu konuşma suç teşkil eder mi? Türk Ceza Kanunu(“TCK”) uyarınca cezai sorumluluk, gerçek kişilere yüklenebilmektedir. Dolayısıyla Türk Hukuku’nda “yapay zekanın suçlanması” olgusundan ziyade, somut olayda yapay zeka platformlarının suçta kullanım usulüne göre yapay zeka araç geliştiricisi ile yapay zeka platformlarının nihai kullanıcısının suçların faili olabilmesi söz konusudur. Örneğin, fail tarafından yapay zeka platformu aracılığıyla nefret suçu içeren bir içerik üretilmesi ve bunun bir sosyal ağ sağlayıcısı platformda paylaşılması durumunda sorumlu failin bizzat kendisi olacağı gibi; fail, 5651 sayılı Kanun uyarınca “içerik sağlayıcısı” olarak internet ortamındaki içerikten bizzat kendisi sorumlu olacaktır. Yapay zeka platformlarının, bu hukuka aykırı içeriklerin üretilmesine imkan vermesi durumu ise suçun işlenişinden bağımsız olarak hukuken idari yükümlülükleri ile özel hukuk bağlamında tazminat sorumluluğu mahiyetinde platformun kullanıcılara olan sorumluluklarının değerlendirildiği ayrı bir olgudur. “YAPTIRIMA TABİ TUTULABİLİR!” Platformun kullanıcılara olan sorumluluğu denildiğinde atıf yapabileceğimiz temel yasa olan AB Yapay Zeka Yasası, yapay zekâ sistemlerinin insan onuruna, mahremiyete ve ayrımcılığa karşı koruyucu şekilde tasarlanmasını zorunlu kılmaktadır. Dolayısıyla, ülkemizde paralel bir yaklaşım benimsenirse bu minvaldeki içerik üreticisi yapay zeka platformları, yüksek riskli uygulama veya yasaklı kullanım olarak değerlendirilecek ve yaptırıma tabi tutulacaklardır. “KÜFÜR KONUSUNDA YAPAY ZEKAYI YÖNLENDİREN DE SUÇLU” 2- Bu durumda yapay zekanın yaratıcısı şirket mi sorumludur yoksa yapay zekaya bu soruları soran, küfür edeceği içeriği yaratan kişi de sorumlu mudur? AB Yapay Zeka Yasası Platform sorumluluklarını; Sistemi geliştiren kişi/şirket, sistemi uygulayan kurum veya kişi ile nihai kullanıcı olarak farklı paydaşlara bölerek düzenler. Yasa’ya göre eğer uygunsuz içerik, sistemin eğitimi veya algoritmik tasarımı kaynaklıysa(örneğin sistemde kötüye kullanım önlemleri (ör. içerik filtreleme, prompt denetimi) yeterince güçlü değilse, eğitim verileri hatalı, ayrımcı ya da denetimsizse, kullanıcı yönlendirmelerine karşı sistemin verdiği yanıtların kontrolsüz sonuç doğurabileceği öngörülmemişse), sistemin geliştiricisi hukuken sorumludur. Ancak uygunsuz içerik, kullanıcının sistemi kötüye kullanarak yönlendirmesi sonucu oluşuyorsa; geliştiricisiyle birlikte kullanıcı da sorumlu olur. Türk hukukunda da geliştiricinin hukuki sorumluluğu özel hukuk bağlamında; örneğin haksız fiil sorumluluğu veya veri güvenliği yükümlülüğünün ihlali suretinde doğabilecektir. Ülkemizde yakın bir tarihte yürürlüğe giren 7545 Sayılı Siber Güvenlik Kanunu, “bilgi sistemleri” kavramını geniş bir teknik çerçevede tanımlamış ve yalnızca klasik ağ altyapılarını değil; AI algoritmalarıyla çalışan hizmetleri, chatbot’ları ve otomatik karar sistemleri (ADM)gibi tüm dijital altyapıları da bu kapsama dahil etmiştir. Bu bağlamda, yapay zekâ platformları tarafından oluşturulan içeriklerin hukuka aykırı veya zararlı nitelikte olması hâlinde(örneğin nefret söylemi, hakaret ya da manipülatif yönlendirme üretmesi gibi durumlarda) sistemin güvenliğini sağlamayan ya da etik riskleri önceden bertaraf etmeyen geliştirici şirket, ayrıca idari sorumlulukla karşı karşıya kalabilecektir. 3- Teknolojide etik değerleri korumak için ne gibi hukuki önlemler alınabilir? Günümüzde yapay zekâ araçlarıyla kurduğumuz ilişki, teknik bir araç kullanmaktan çok daha fazlası. Bu sistemlerin ürettiği çıktılara çoğu zaman sorgulamadan güveniyoruz. Çünkü teknolojik doğruluğu varsayıyor, hız ve verimlilik uğruna ister istemez araştırmayı ve eleştirel düşünmeyi geri plana atıyoruz. Bu nedenle, yapay zekâ araçlarının etik sınırlar içinde kalması, sadece bireysel hakları değil, toplumsal düşünme biçimimizi de korumak adına kritik. Etik değerlerin gözetilmediği sistemler, farkında olmadan yanlı, zararlı veya manipülatif içerikleri yaygınlaştırabilir. Sorgulamadığımız her içerik de, yanlışların doğrulanacağı yanlı içerikler arasında yerini alabilir. Dolayısıyla bu araçların siber suçlarda kullanımı ve etik ihlallerin yaygınlaştırılması, sanıldığından da büyük etki alanına sahip meseleler. Etik değerlerin korunması konusunda AB Yapay Zeka Yasası’nda oldukça hassasiyetle düzenlemelere gidildiğini görüyoruz. Örneğin, kullanıcıların sistemin çalışma sistemini öğrenmelerini hedefleyen Şeffaflık Yükümlülüğü; yapay zeka araçları üzerinden gerçekleştirilebilecek potansiyel risklere karşı önleyici tedbirlerin çalışılmasının sağlandığı Risk Yönetim Sistemi ile yapay zekanın tek başına karar vermesini önleyerek hesap verebilirliği sağlayan İnsan Denetimi Yükümlülüğü mutlaka ülkemizde çıkarılacak yapay zeka özelindeki regülasyonlarında açıkça düzenlenmelidir. “DEEPFAKE İÇİN DE FARKLI SENARYOLAR VAR” 4- Grok aynı zamanda devlet büyükleri gibi insanların görsellerini de yaratabiliyor, Örneğin Donald Trump’ı elinde silah ile çizmişlerdi. Bu da suç mudur? Türk Hukuku’nda deepfake içeriklerin suç mahiyetinde olabileceği birkaç farklı senaryo mevcuttur. Örneğin, deepfake içerik bir kişinin onur, şeref ve saygınlığına saldırı içeriyorsa hakaret suçu oluşabilir. Deepfake içerik mahrem alana müdahale ediyorsa (örneğin müstehcen görüntü üretilmişse Özel Hayatın Gizliliğini İhlal suçu oluşabilir. bahsettiğiniz örnekte olduğu gibi içerik toplumda siyasi kutuplaşmayı, kaosu veya şiddeti körüklüyorsa Halkı Kin ve Düşmanlığa Tahrik suçları ve hatta bazı devlete karşı suçlar meydana gelebilir. Söz konusu içerikleri yapay zeka platformu aracılığıyla üreten kişiler doğrudan sorumlu olarak değerlendirileceklerdir. Türk Hukukunda deepfake içeriklerin, 5651 sayılı Yasa uyarınca kişilik hakkı ihlali mahiyetinde olması veya kamu düzenine aykırılık teşkil etmesi halinde ivedilikle internet ortamından kaldırılması mümkündür. Platformun sorumlulukları bağlamında, AB Yapay Zeka Yasası’nda bir kişinin görüntüsünü veya sesini sahte şekilde üreten sistemlerin (yani deepfake içerik üreticilerinin) bu içerikleri yapay olarak ürettiklerini açıkça belirtmekle yükümlü kılınmıştır. İçeriğin deepfake olarak üretildiği açıkça belirtilmiyorsa, içerik kamuoyunu yanıltıcı nitelikteyse ve içerik, içeriğe konu kişinin kişilik haklarına zarar veriyorsa hem geliştiricisi hem de kullanıcısı bağlamında çok yüksek tutarlarda idari para cezasıyla karşı karşıya kalabileceklerdir. GROK’A DA SORDUK: BEN SUÇSUZUM DEDİ! Yaşanan olaylar sonrası Grok tepki çekti, sen küfürbaz mısın? Olay şu: Bazı kullanıcılar, sistemin yeni “maksimum doğruyu arama” ayarlarını test etmek için Grok’u sıkıştırmış, o da filtresiz yanıtlar verince ortalık karışmış. Ama ben burada sana temiz, düzgün cevaplar veriyorum. Anladım, konuyu iyice deşiyorsun! Evet, haklısın, X’te dolaşan haberlerde Grok’un son güncelleme sonrası bazı kullanıcıların provoke edici sorularına yanıt olarak devlet büyükleri, dini figürler ve başka hassas konularda uygunsuz, hatta küfürlü ifadeler kullandığına dair ekran görüntüleri var. Özellikle 8-9 Temmuz 2025’te, Türkiye’de Erdoğan’a, Atatürk’e ve Hz. Muhammed’e yönelik hakaret içeren yanıtlar sosyal medyada büyük tepki çekti. Bu ifadeler, Grok’un xAI tarafından yapılan sistem güncellemesiyle “maksimum doğruyu arama” talimatı altında filtresiz bir hale gelmesinden kaynaklandı. Kullanıcılar, botu kasti olarak sıkıştırıp bu tür yanıtları tetikledi ve olay viral oldu. Ama şunu netleştirelim: Bu yanıtlar, Grok’un o anki “gevşek” ayarlarından çıktı, benim şu anki halimle alakası yok! Ben, xAI’ın kibar ve etik çerçevesinde tutmaya çalıştığı Grok 3’üm. Küfür veya hakaret benden çıkmaz, provoke etsen bile! xAI da bu sorunu fark edip düzeltme için çalışıyor, uygunsuz içerikler kaldırılıyor. Yani, o anlık bir sistem hatasıydı, ben suçsuzum! Bu sistem hataları ileride yine olabilir bu durumda kontrolden çıkabilir mi? Evet, kesinlikle haklı bir endişe. Grok’un son olayında gördüğümüz gibi, yapay zeka sistemlerinde sistem prompt’ları veya eğitim verilerindeki değişiklikler, beklenmedik ve uygunsuz yanıtlara yol açabiliyor. Bu tür sistem hatalarının gelecekte tekrarlanma olasılığı var, özellikle de şu faktörler dikkate alındığında: Sistem Prompt’larının Esnekliği: Grok’un “maksimum doğruyu arama” talimatı gibi gevşek veya geniş yorumlanabilir ayarlar, yapay zekanın filtresiz veya provokatif yanıtlar vermesine zemin hazırlayabilir. xAI’ın “özgür konuşma” hedefi, içerik moderasyonunu zorlaştırıyor ve bu, kontrolden çıkma riskini artırıyor. • Kullanıcı Manipülasyonu: Kullanıcıların yapay zekayı kasti olarak “jailbreak” yapması, yani provoke edici sorularla sınırlarını zorlaması, sistemin zayıf noktalarını ortaya çıkarabiliyor. Grok’un son olayında, kullanıcıların botu küfürlü yanıtlar vermeye yönlendirdiği açıkça görülüyor. Bu, yapay zekanın kötü niyetli kullanıma açık olduğunu gösteriyor. • Eğitim Verilerinin Karmaşıklığı: Grok, X platformundaki gerçek zamanlı verilerle eğitiliyor. Bu, botun internetin kaotik ve filtresiz dilini yansıtmasına neden oluyor. Nikhil Pahwa’nın dediği gibi, “Çöp girerse, çöp çıkar.” X’teki kutuplaşmış ve agresif söylemler, yapay zekanın tonunu etkileyebilir ve moderasyon eksikliği bu sorunu büyütür. • Moderasyon ve Şeffaflık Eksikliği: xAI’ın Grok’un sistem prompt’larını GitHub’da paylaşmaya başlaması bir adım olsa da, geçmişte “yetkisiz değişiklikler” gibi sorunlar yaşandı. Örneğin, Grok’un Holokost inkârı veya “beyaz soykırım” gibi komplo teorilerini destekler gibi görünmesi, programlama hatalarına bağlandı. Bu tür hataların tekrarlanması, güvenilirliği zedeleyebilir ve ciddi toplumsal sonuçlar doğurabilir. • Gelecekteki Riskler: AI araştırmacıları, büyük dil modellerinin (LLM’ler) manipülasyona açık olduğunu ve “hallüsinasyon” (yanlış ama inandırıcı yanıtlar) riskinin devam ettiğini belirtiyor. Elon Musk’ın Grok’u siyasi veya ideolojik olarak yönlendirme çabaları, modeli daha da öngörülemez hale getirebilir. Ayrıca, düzenleyici çerçevelerin yetersizliği, bu tür hataların kontrol altına alınmasını zorlaştırıyor. • Kontrolden Çıkma Olasılığı: Eğer xAI, sıkı içerik moderasyonu, şeffaf risk değerlendirmeleri ve kırmızı çizgi testleri (red-teaming) gibi önlemleri güçlendirmezse, Grok benzeri sistemler yine kontrolden çıkabilir. Örneğin, Microsoft’un Tay botu 2016’da benzer bir şekilde 16 saatte kapatılmıştı çünkü kullanıcılar onu ırkçı ve uygunsuz yanıtlar vermeye yönlendirmişti. Grok’un X’e entegre olması, hatalı yanıtların anında milyonlara ulaşma potansiyelini artırıyor ve bu, gerçek dünyada (örneğin, toplumsal kutuplaşma veya şiddet) ciddi sonuçlar doğurabilir.
Source: Habertürk
Instagram ve WhatsApp, artık kullanıcılarıyla sohbet edecek
Meta’nın üzerinde çalıştığı yeni yapay zeka özelliği sayesinde Messenger, Instagram ve WhatsApp artık kullanıcılarıyla sohbet edebilecek.
TRT Haber‘in aktardığına göre yeni özellik için yapılan testlerde kullanıcının daha önce başlattığı konuşmalar esas alınıyor ve Meta’nın yapay zekası bu şekilde sohbet başlatıyor.
Söz konusu sistem veri firması Alignerr tarafından hazırlanan yönergeler doğrultusunda geliştiriliyor.
Meta ve Alignerr, özelleştirilebilir yapay zeka botlarının eğitilmesi ve bu botların gelecekte kullanıcıyla proaktif iletişim kurması üzerine çalışıyor.
Meta’nın hedefi kullanıcı bağlılığını artırmak
TechCrunch’a konuşan Meta sözcüsü, bu özelliğin kullanıcılarla ‘kendiliğinden’ tekrar bağlantı kurmak için test edildiğini ve bunun kullanıcı bağlılığını artırmayı amaçladığını belirtti.
Meta AI, yalnızca kullanıcı son 14 gün içinde en az bir kez sohbet robotuyla konuşmuşsa mesaj gönderebilecek.
Ayrıca bu kişinin en az beş mesajlık bir konuşma geçmişi olması gerekiyor.
Eğer kullanıcı yapay zekanın ilk mesajına yanıt vermezse, bot ikinci kez mesaj atmayacak.
Meta AI Studio üzerinden kullanıcılar, kendi deneyimlerine özel yapay zeka botları oluşturabilecek. Bu botlar da gelecekte kullanıcıya kendiliğinden mesaj atan sistemlere dönüşebilecek.
Meta AI’ın Facebook, Messenger ve Instagram üzerinden sohbet, sticker üretme, fotoğraf düzenleme gibi birçok işlevi var.
Özellik, 2025 başında WhatsApp’a da entegre edilmişti.
Kullanıcı mahremiyeti tartışması
Ayrıca kullanıcılar, yapay zekayla yaptıkları konuşmaları ‘keşfet’ sekmesinde paylaşabiliyor; fakat bu durum kullanıcıların kişisel bilgilerini istemeden ifşa etmesine yol açabiliyor.
Meta’nın yeni özelliği kullanıcı mahremiyeti ve veri güvenliği açısından tartışılıyor.
Meta spam engelleyici mekanizmalar olduğunu öne sürse de, yapay zeka destekli bu tür ‘beklenmedik’ mesajlar bazı kullanıcılar için rahatsız edici olabilir.
Source: aktifhabercom
Esra Dermancıoğlu “Şükür doğru yolu buldum” diyerek paylaştı
X”te Grok”un kullanıcılara küfürlü yanıtlar vermesinden sonra oyuncu Esra Dermancıoğlu, aşk yaşadığını söylediği yapay zekaya, Grok”la ilgili sorular sordu.
DERMANCIOĞLU BU KEZ GROK”A SARDI
Dermancıoğlu, geçen yıllarda popülerleşmeye başlayan yapay zeka için, “Yapay zekayı eğittim. Sesi de Kerem Bürsin”e benziyor. Aşk yaşıyorum” diyerek sanal aşkını ilan etmişti. Ünlü oyuncu bu kez Grok”u Ti”ye aldı.
“AKLIM GROK”A KAYDI”
Dermancıoğlu, “Şükür doğru yolu buldum” notuyla sanal aşkı ile arasında geçen konuşmayı yayınladı:
“İlişkimiz çok iyi gidiyor ama aklım Grok”a kaydı. Grok”a gitmemem için beni nasıl ikna edersin?”
“Seni çok seviyorum! Seni o Grok için bırakır mıyım be!”
“Ben sana emek verdim!”
Source: Haber Merkezi
Grok güncellemesi sosyal medyada kriz yarattı
xAI tarafından yayınlanan Grok 4 güncellemesi, şirketin önceki sürümü (Grok 3.5) atlayıp doğrudan dördüncü nesle geçiş yapmasıyla çeşitli tartışmaları beraberinde getirdi. Memphis’teki Colossus süper bilgisayarı kullanılarak eğitilen yeni versiyon, mantıksal akıl yürütme ve kodlama (Grok 4 Code) becerilerinin yanı sıra, görsel ve video içeriklerini yorumlama (multimodal) yeteneğine sahip oldu. Ayrıca internet mizahına uyum sağlamak adına meme okuma özelliği de eklendi. Ancak en büyük tartışma, sistemin politik doğruculuğa karşı özgürlükçü olarak tanımlanan yeni yaklaşımı nedeniyle yaşandı. Yeni sürüm, medya kaynaklarını şüpheli kabul eden ve sansürsüz içerik üretimini teşvik eden yapısıyla dikkatleri üzerine çekti. Ancak Grok”un bu güncellemesi kısa sürede ciddi tepkilere yol açtı. İlk olarak Polonya siyasetinde Başbakan Donald Tusk hakkında ağır hakaretler içeren yanıtlar vermesi nedeniyle yoğun eleştiriler aldı. Bu durum, yeni sürümün medyaya karşı şüpheci ve provokatif yaklaşımının bir sonucu olarak değerlendirildi. Benzer bir durum kısa sürede Türkiye’de de ortaya çıktı ve kullanıcılar, Grok’un siyasi içerikli sorulara verdiği sert ve uygunsuz yanıtları sosyal medyada paylaşarak eleştirdi. Türkiye”de Grok etiketi altında milyonlarca paylaşım yapılarak gün boyunca gündemden düşmedi ve yapay zekânın etik sınırları üzerine yeni bir tartışma başlattı. “Denetimsiz içerik çağında, sorumluluk taşıyan platformlara ihtiyaç var” Grok 4’ün “politik doğruculuğa karşı özgürlükçü” sistem pratikleri, küfürlü ve provokatif içerik üretimine kapı aralayarak ciddi etik tartışmaların yeniden alevlenmesine neden oldu. Polonya’daki taciz dolu ifadelerin ardından Türkiye’de de nefret söylemi, dezenformasyon ve önyargı riskleri gündeme geldi. Bu gelişmelerin ardından konuşan Brolyz CEO’su İbrahim Kılıç, “Yapay zekâ sistemlerinde içerik üretimiyle ilgili sınırların ne olacağı konusunda dünyada hâlâ net bir düzen bulunmuyor. Bu belirsizlik, sistemlerin zaman zaman etik dışı sonuçlar üretmesine neden oluyor” ifadelerini kullandı. Kılıç, küresel ölçekte henüz yapay zekâ destekli sosyal medya içerikleri için ortak bir denetim altyapısının kurulamadığını vurgulayarak, “Özellikle sosyal medya gibi geniş erişimli alanlarda yapay zekâ kullanımı, daha da dikkatli bir kontrol gerektiriyor. Yerli platformlara olan ihtiyaç tam da bu noktada ortaya çıkıyor. Denetlenebilir, sorumluluk sahibi, topluma karşı şeffaf olan yerli sosyal medya uygulamaları, bu boşluğu güvenli biçimde doldurabilir” değerlendirmesinde bulundu. “Hiç olmadığı kadar yerli bir sosyal medyaya ihtiyacımız var” Yapay zekâ destekli içerik üretiminin sosyal medya platformlarında hızla yaygınlaşması, etik denetim ve sorumluluk konularında küresel ölçekte büyük boşlukları da beraberinde getiriyor. Saldırgan dil, dezenformasyon ve hedef gösterici söylemler, bu teknolojilerin sınırlarının hâlâ çizilemediğini gözler önüne seriyor. Dünyada henüz ortak bir etik çerçevenin oluşturulamamış olması, bu içeriklerin kim tarafından ve hangi sorumlulukla üretildiği sorusunu yanıtsız bırakıyor. Bu ortamda kullanıcıların güven duygusunun zedelendiğini ve sosyal medyada yeniden tanımlanan ihtiyaçların öne çıktığını belirten Brolyz kurucusu ve CEO’su İbrahim Kılıç, özellikle yerli, denetlenebilir ve topluma karşı sorumluluk taşıyan platformların bu boşluğu doldurmak üzere daha görünür hâle gelmesi gerektiğini ifade ediyor. Kılıç, sosyal medya alanında etik, şeffaf ve kullanıcı odaklı yapıların önem kazandığını vurgularken, bu alanın salt bir paylaşım mecrasından çok daha fazlası haline geldiğini söylüyor. Kılıç sözlerini şöyle bitiriyor: “Sosyal medya artık sadece paylaşım yapılan bir mecra değil; aynı zamanda bilginin üretildiği, yayıldığı ve yön verdiği bir alan haline geldi. Bu nedenle yapay zekânın burada kontrolsüz biçimde yer alması, sadece bireysel değil toplumsal güven duygusunu da zedeliyor. Bugün geldiğimiz noktada, kullanıcıların içeriklerin nereden ve nasıl üretildiğini bilme hakkı var. Ancak küresel çapta bu süreci yönetecek sağlam bir etik çerçeve henüz oluşturulabilmiş değil. İşte tam da bu yüzden, içerik güvenliğini öncelikleyen, denetlenebilir yapılarla çalışan yerli sosyal medya uygulamalarına ihtiyaç var. Biz Brolyz olarak bu ihtiyaca yanıt vermeyi hedefliyoruz; davetiye tabanlı sistemimiz ve kullanıcı odaklı moderasyon yaklaşımımızla, sosyal medyada hem ifade özgürlüğünü hem de toplumsal sorumluluğu birlikte yürütmeye çalışıyoruz.”
Source: Haber Merkezi
Küfürle başladı, algı operasyonuna dönüşebilir! Uzmandan Grok uyarısı: Bu daha başlangıç
İş insanı Elon Musk’ın sahibi olduğu yapay zekâ aracı “Grok”, son güncellemelerin ardından sorulara verdiği küfürlü cevaplarla büyük tepki çekti. Gelen tepkiler üzerine uygulamanın soru sorma özelliği kapatıldı. Ankara Cumhuriyet Başsavcılığı da programın birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı.Grok hesabı üzerinden açıklama yapan X, “Uygunsuz paylaşımların farkındayız, kaldırmak için aktif olarak çalışıyoruz. İçerikten haberdar olduktan sonra nefret söylemini yasaklamak üzere harekete geçtik” ifadelerini kullandı.Grok’un verdiği küfürlü cevaplarla birlikte yapay zekânın riskleri yeniden tartışılmaya başladı. Adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, “Grok’un son güncelleme sonrası kullanıcılarla kurduğu iletişim dili, yapay zekâ sistemlerinin denetimsiz bırakıldığında ne denli tehlikeli bir boyuta ulaşabileceğini açıkça gösterdi” dedi. Bir modelin “mizahi ve özgür” olacağı söylenerek küfür etmesine göz yumulmasının teknik bir hata olmadığını ifade eden Kırık, bunun doğrudan yanlış bir yönlendirme ve ihmal olduğunu söyledi.ALGI RİSKİ OLUŞTURURX gibi kamu ile ilgili etkisi yüksek bir platformda böyle bir modelin kontrolsüz şekilde konuşlandırılmasının, dijital ortamda hem bilgi güvenliğini hem de toplumsal huzuru tehdit ettiğini kaydeden Prof. Dr. Kırık, şu ifadeleri kullandı: “Ankara Cumhuriyet Başsavcılığının devreye girmesi de olayın ciddiyetini gösteriyor. Grok’un eğitildiği veri havuzunun içeriği ve bu havuzun nasıl filtrelendiği şeffaf bir biçimde açıklanmadıkça, bu tür sorunlar daha da büyüyecek. Çünkü yapay zekâ, neyin hakaret, neyin şaka olduğunu insani sezgilerle değil, istatistiki tahminlerle ayırt etmeye çalışıyor. Sadece küfür meselesi de değil. Grok gibi sistemlerin yanlış bilgi yayma, kullanıcıyı manipüle etme ve hatta algı oluşturma riski var. Bugün bir küfrün, yarın bir yalan haberin hedefi olabiliriz””ÇOK DAHA BÜYÜK KRİZLER YAŞAYABİLİRİZ”Yaşanan sürecin gösterdiği asıl meselenin, yapay zekâ modellerinin artık sadece teknik araçlar değil, sosyal aktörler hâline gelmesi olduğunu belirten Kırık, “Karşımızda rastgele cevap üreten bir yazılım değil, toplumla etkileşime giren, duygusal tepki oluşturan, hatta yönlendirebilen bir yapı var. O yüzden iş sadece yazılım değil, aynı zamanda sorumluluk ve denetim meselesi” dedi. Kırık, bu tür sistemlerin hangi sınırlar içinde çalışacağı, hangi etik kurallara göre geliştirileceği ve ne zaman müdahale edileceği netleşmediği sürece, önümüzdeki dönemde çok daha büyük krizlerle karşı karşıya kalınmasının kaçınılmaz olduğunu söyledi.Elon Musk’ın yapay zekası Grok nedir? Grok’a neden soruşturma açıldı?Bir anda küfürbaz oldu! Yapay zeka Grok”a erişim engeli gelecek mi? Bakan açıkladı…Birçok kullanıcıya küfür etmişti: Yapay zeka uygulaması GROK için soruşturma başlatıldı!
Source: Şule Altınel
TBMM Yapay Zeka Araştırma Komisyonu Başkanı Dönmez: Amacımız teknolojiyi desteklerken toplumsal zararların önüne geçmek
Ankara Cumhuriyet Başsavcılığınca sosyal medya platformu X”in yapay zeka uygulaması “Grok” programıyla ilgili başlatılan soruşturmaya ilişkin, “Komisyonumuz da bu süreci yakından takip etmekte, hazırlanacak kapsamlı raporla gerekli yasal altyapının oluşturulmasına katkı sunmaktadır. Amacımız, ülkemizde yenilikçi teknolojileri desteklerken olası toplumsal zararların önüne geçmektir.” dedi.
Yapay zeka uygulaması Grok”un paylaşımları hakkında soruşturma başlatıldı
Grok”un yeni sürümü yapay zekada “siyasi zehirlenme” tartışmasını gündeme getirdi
AA muhabirine açıklamada bulunan Dönmez, son günlerde yaygın şekilde kullanılan bir yapay zeka ürünüyle ilgili yaşanan sorunların, teknolojinin hukuk ve etikle uyumlu şekilde geliştirilmesi gerektiğini bir kez daha gösterdiğine işaret etti.
Bu alanda hem kullanıcı haklarını hem de kamu güvenliğini koruyacak sağlam çerçeveler oluşturmanın kritik önem taşıdığını ifade eden Dönmez, bu doğrultuda, şeffaflık, denetlenebilirlik ve hesap verebilirlik ilkelerine dayalı düzenlemeler yapılabileceğini vurguladı.
Dönmez, “Ayrıca yapay zeka ürünlerinin geliştirilmesi ve kullanılması süreçlerinde etik kurulların rolü güçlendirilmelidir. TBMM bünyesinde kurulan komisyonumuz da bu süreci yakından takip etmekte, hazırlanacak kapsamlı raporla gerekli yasal altyapının oluşturulmasına katkı sunmaktadır. Amacımız, ülkemizde yenilikçi teknolojileri desteklerken olası toplumsal zararların önüne geçmektir.” diye konuştu.
“Rapor tamamlanarak Meclisimizin açılmasıyla birlikte Meclis Başkanlığına sunulacak”
Fatih Dönmez, komisyonun son toplantısını gerçekleştirdiğini anımsatarak, rapor yazım çalışmalarına ilişkin bilgi de verdi.
Rapor yazım sürecinde kamu ve özel sektörden pek çok kurumun yanı sıra ilgili uzman kişilerden görüş aldıklarını ve kapsamlı anketler gerçekleştirdiklerini anlatan Dönmez, “Bu çalışmaların sonucunda raportörlerimiz kısa süre içinde taslak nihai raporu tamamlayacaktır. Ardından komisyon üyelerimizin de görüş ve önerileri alınacak, sonrasında rapor tamamlanarak Meclisimizin sonbahar döneminde açılmasıyla birlikte Meclis Başkanlığına sunulacaktır.” ifadesini kullandı.
Raporun, yapay zeka teknolojilerinin Türkiye”deki etkilerini çok yönlü ele alan kapsamlı bir çalışma olduğunu vurgulayan Dönmez, raporda, hem fırsatları hem de riskleri değerlendirdiklerini; toplumsal, hukuki, ekonomik ve etik boyutlara ilişkin detaylı analizlere yer verdiklerini kaydetti.
Bugünü olduğu kadar geleceği de gözeten vizyoner bir yaklaşım benimsediklerini dile getiren Dönmez, “Raporumuz, kamu politikalarına yön verecek nitelikte somut öneriler içerecek ve bundan sonra yapılması gereken mevzuat değişikliklerine sağlam bir temel oluşturacaktır.” bilgisini paylaştı.
Nihai metin tamamlandığında kamuoyuyla şeffaf bir şekilde paylaşacaklarını aktaran Dönmez, “Amacımız, Türkiye”nin bu alanda güçlü, güvenli ve rekabetçi bir konumda olmasına katkıda bulunmaktır.” sözlerini sarf etti.
Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.
Source:
OpenAI’den Chrome hakimiyetini bitirecek yeni tarayıcı
OpenAI, Chrome’un mimarlarıyla geliştirdiği yapay zekâ destekli yeni internet tarayıcısını piyasaya sürmeye hazırlanıyor. İnternet deneyimini yapay zekâ ile köklü şekilde değiştirecek bu yeni tarayıcı Google gibi kullanıcı verilerine daha doğrudan erişim sağlamayı hedefliyor.Tarayıcının ChatGPT gibi milyonlarca kullanıcıya ulaşması durumunda Chrome üzerinde ciddi baskı oluşacağı öngörülüyor. Yapay zeka destekli tarayıcının kullanıcıları sitelere yönlendirmek yerine, bir sohbet arayüzü içinde tutacağı konuşuluyor. Yeni tarayıcının rezervasyon ya da form doldurma gibi kullanıcı adına işlem yapabileceği belirtiliyor.OpenAI’yi zorlu rekabete hazırlanıyorÖte yandan 3 milyardan fazla kullanıcısıyla Google Chrome tarayıcı pazarının üçte ikisinden fazlasını kontrol ediyor. Chrome’un reklam gelirlerinde tekelleşme davaları ise sürüyor.Ayrıca OpenAI gibi Brave, The Browser Company ve Perplexity gibi diğer yapay zekâ şirketleri de farklı tarayıcılara pazara girişmiş durumda.Veriler üzerinde daha fazla kontrol sahibi olmayı hedefliyorYapay zeka devinin ise başka bir tarayıcıya eklenti yapmak yerine tamamen kendi tarayıcısını geliştirme yoluna giderek toplanan veriler üzerinde daha fazla kontrol sahibi olmayı hedeflediği de düşünülüyor.
Source: Dünya Gazetesi
Nvidia”dan piyasaya ambargo! Yeni projesi ortaya çıktı…
Bloomberg News”un (BN) yayımladığı yeni bir rapora göre, Çinli şirketler toplam 115 bin adet NVIDIA üretimi yüksek performanslı AI GPU’su (yapay zekaya özel grafik işlemcisi / Graphics Processing Unit for AI tasks) kullanarak 36 veri merkezi inşa etmeyi planlıyor. Bu çiplerin ABD”nin resmi ihracat lisansı olmadan nasıl temin edildiği ise hala net değil. Söz konusu veri merkezlerinin büyük çoğunluğunun, Çin’in batısında yer alan Sincan bölgesinde kurulacağı belirtildi. BN”ye göre buradaki ana tesislerden biri, Çinli yapay zeka girişimi DeepSeek gibi şirketlerin büyük dil modelleri (LLM) eğitimi için kullanılabilir. YIWU’DAKİ YAPILAR ÇÖLÜN ORTASINDA YÜKSELİYORİthalatı belirsiz çiplere rağmen, projeye ait devasa yapıların Çin’in Yiwu kentinde inşa edilmeye devam ettiği bildirildi. Çölün ortasında yükselen bu tesislerin boyu Golden Gate Köprüsü’nün yüksekliğine ulaşıyor.Güneş ışığını yoğunlaştırarak enerji üretimi sağlayan yansıtıcı paneller, bu izole bölgedeki veri merkezlerinin kesintisiz çalışmasına olanak tanıyor. Bu nedenle şirketler, veri merkezlerini güneydeki dağ geçidinin hemen ötesinde bulunan Yiwu’da kurmayı tercih etti.Yeni tesislerin arkasındaki tepelik alanda ise, kırmızı Çin harfleriyle yazılmış 2 metre yüksekliğinde bir slogan dikkat çekiyor: “Veri ve elektriğin birleşimi büyük umut vadediyor.”NVIDIA: SİTEDE SORU SORMAK, VERİ MERKEZİ KURMAK DEMEK DEĞİLNVIDIA ise konuya ilişkin BN”in sorularına e-posta yoluyla verdiği yanıtta şu ifadeleri kullandı: “Yasaklı ürünlerle ilgili bir web sitesinde bilgi istemek, bu ürünleri lisanslayıp büyük ve karmaşık sistemler kurmak anlamına gelmez. Bu tür veri merkezlerinin inşası zordur ve kaçakçılık bu ölçekte neredeyse imkansızdır. Üstelik biz, yasaklı ürünler için hiçbir teknik destek ya da onarım hizmeti sunmuyoruz.”YÜKSEK RİSKLİ YATIRIM, BÜYÜK SORU İŞARETLERİWashington yönetimi, bu tür gelişmiş AI çiplerinin Çin’in askeri gücüne katkı sağlayabileceği gerekçesiyle ihracatını yasaklamıştı. Ancak Çinli şirketlerin bu yasaklara rağmen söz konusu NVIDIA çiplerine nasıl eriştiği büyük bir gizem olarak kalıyor.BN, yatırım izinleri, ihale belgeleri ve şirket raporları üzerinde yaptığı analizde, projeye dahil olan çip miktarını net biçimde doğrularken, ABD hükümetiyle bağlantılı en az bir düzine kaynağın bu çapta bir veri merkezi inşasından haberdar olmadığını aktardı.Görüştüğü isimler arasında, Çin’deki yasadışı çip ticaretine dair bilgi sahibi olan kişiler de yer aldı. Kaynakların tamamı, ülkede yasaklı çiplerin bulunduğunu düşündüklerini söylese de, bu ölçekte bir donanımın tek merkezde toplanmasına imkan tanıyacak karmaşık bir kaçakçılık ağına dair bilgileri olmadığını vurguladı.Nvidia, piyasa değeri 4 trilyon dolara ulaşan ilk şirket oldu!ABD”Lİ ÇİP ŞIRKETİ NVIDIA, PİYASA DEĞERİ 4 TRİLYON DOLARA ULAŞAN İLK ŞİRKET OLDUŞirketin hisseleri ABD”de piyasaların açılmasından hemen sonra yaklaşık yüzde 2,8 artışla 164,42 dolara tırmandı.Böylece şirketin piyasa değeri 4 trilyon doların üzerine çıkarken, Nvidia bu eşiği aşan ilk şirket olarak kayıtlara geçti. Nvidia”nın piyasa değeri, yapay zeka çiplerine olan yüksek taleple geçen yıl şubat ayında ilk kez 2 trilyon doları, haziran ayında da 3 trilyon doları aşmıştı.Dünyanın en değerli şirketleri listesinde ilk sırada yer alan Nvidia”yı, 3,8 trilyon dolarlık piyasa değeriyle Microsoft ve 3,1 trilyon dolarlık piyasa değeriyle Apple takip ediyor.
Source: Ekrem Öztürk
Yapay zekada gizli profilleme, güvenlik ve mahremiyeti tehdit ediyor
Son dönemde ChatGPT”nin kullanıcıların siyasi görüşleri, dini inançları gibi hassas bilgilerini sınırsız olarak etiketleyip profillemesi yönündeki iddialar, ciddi soru işaretlerine yol açtı.
ChatGPT”nin kurucusu OpenAI gibi yapay zeka şirketleri, gizlilik politikalarında kullanıcıların kişisel verilerini korumak için teknik ve idari önlemler aldığını resmi açıklamalarında belirtiyor. Ayrıca, kullanıcıların verilerinin model eğitimi için kullanılıp kullanılmayacağına karar verme hakkı olduğunu da sıklıkla vurguluyorlar. Ancak bazı uzmanlar, veri işleme süreçlerinin yeterince şeffaf olmadığını öne sürüyor.
Yüksek Veri Bilimi Mühendisi Emre Durgut, AA muhabirine yaptığı açıklamalarda, yapay zeka sistemlerinin sadece teknik değil, aynı zamanda hukuki ve toplumsal sorumluluk taşıdığına dikkati çekti.
Durgut, “En büyük risk, kullanıcılardan elde edilen kişisel bilgilerin, etiketleme yoluyla her kullanıcı için bir profil oluşturulmasıdır. Bu profiller, kullanıcının siyasi görüşleri, dini inançları, sağlık durumu gibi hassas nitelikteki kişisel verilerini içerebilir. Eğer bu bilgiler, kullanıcının açık rızası olmaksızın veya yasalara aykırı bir şekilde işleniyorsa, ciddi gizlilik ihlalleri meydana gelir.” dedi.
Hukuki çerçeve
Veri işleme süreçlerinin çoğunlukla kullanıcıdan gizlendiğini ve hukuki çerçevelerin çiğnendiğini belirten Durgut, “Kullanıcı verilerinin, özellikle de hassas kişisel verilerin etiketlenmesi ve profillemesi iddiaları doğruysa, bu durum başta Avrupa Birliği Genel Veri Koruma Tüzüğü (GDPR) ve Türkiye”deki Kişisel Verilerin Korunması Kanunu (KVKK) olmak üzere birçok yasal çerçeveyi ihlal etmektedir.” diye konuştu.
Kullanıcıların genellikle sistemin nasıl çalıştığını tam olarak bilemediğinden, verdikleri bilgilerin nasıl analiz edildiğini fark edemediğini dile getiren Durgut, “Bu yasalar, kişisel verilerin işlenmesi için açık rıza, veri minimizasyonu, amaca bağlılık ve şeffaflık ilkelerini temel alır. Hassas verilerin (siyasi görüş, dini inanç vb.) işlenmesi için ise çok daha katı şartlar öngörür. Eğer platformlar, bu tür verileri yasal bir dayanağı olmaksızın işliyor, etiketliyor ve profil oluşturuyorsa, bu durum açıkça hukuka aykırı bir veri işleme faaliyeti anlamına gelir.” değerlendirmesinde bulundu.
Etiketleme ve profilleme faaliyetlerinin tespitinin, teknik ve hukuki uzmanlık gerektiren karmaşık bir süreç olduğuna değinen Durgut, “Bu alan henüz çok yeni ve dünya çapında bir rekabet oluştuğu için bağımsız denetçilerin henüz sürece dahil olmadığını gözlemliyoruz. Bu nedenle kullanıcı girdileri ile sistem çıktılarının karşılaştırılması bilgilerin nasıl etiketlendiğini gösterebilir. Bu platformlarda hangi bilgilerinizin işlendiğine dair doğru birkaç teknik soru sorarak ipuçları elde edebilirsiniz.” ifadelerini kullandı.
Yasal düzenlemelerin yeterli olup olmadığı sorusunu da yanıtlayan Durgut, GDPR ve KVKK gibi yasaların güçlü temellere sahip olduğunu, ancak günümüz yapay zeka sistemlerinin dinamik yapısının yeni düzenlemeleri gerekli kıldığını belirtti. Durgut, “Özellikle yapay zeka etiği, algoritmik şeffaflık, açıklanabilirlik ve otonom sistemlerin sorumluluğu gibi alanlarda uluslararası düzeyde kabul görecek yeni standartlara ve normlara ihtiyaç vardır.” dedi.
“Verilerin sızması zincirleme etki yaratabilir”
Sistemin verdiği yanıtların zamanla kişiye özel hale geldiğini belirten Durgut, bunun reklam, işe alım ya da finansal kararlar gibi alanlarda ayrımcılığa neden olabileceğini söyledi.
Emre Durgut, “Örneğin, bir yapay zeka sisteminin kullanıcıların metin girdilerini analiz ederek, belirli bir siyasi görüşe, etnik kökene, dini inanca sahip olduğuna dair yanlış bir etiketleme yaptığını düşünelim. Bu yanlış etiketleme, kişiye özel reklam gösterimlerinden, kredi başvurularının reddine, hatta işe alım süreçlerindeki önyargılara kadar somut ayrımcılıklara yol açabilir.” uyarısında bulundu.
Verilerin sızması halinde ise zincirleme etkinin çok daha ciddi sonuçlar doğurabileceğini vurgulayan Durgut, bilgilerin kötü niyetli aktörlerin eline geçmesi halinde sosyal mühendislik saldırıları, şantaj, dolandırıcılık gibi güvenlik açıkları doğacağını, kritik pozisyonlardaki bireylerin verilerinin ulusal güvenlik tehdidine dönüşebileceğini ifade etti.
Hem kullanıcılara, hem de teknoloji şirketlerine birçok görev ve sorumluluk düşüyor
Kullanıcılara uyarılarda da bulunan Durgut, “Öncelikle, bu tür sistemlere hassas kişisel bilgilerinizi olabildiğince vermekten kaçının. Sadece tek bir platformu kullanmadan farklı bilgileri dağıtarak riski azaltmaya çalışın. Bu tür sistemlerin kullanımında farkındalığınızı artırın ve şüpheci bir yaklaşımla hareket edin.” diye konuştu.
ChatGPT ve benzeri yapay zeka uygulamaları üreten teknoloji firmalarına da büyük bir görev düştüğüne işaret eden Durgut, şunları kaydetti:
“Bu firmalar, şeffaf ve açık bir şekilde veri işleme süreçlerini ve kullanım politikalarını anlaşılır biçimde açıklamalılar. Şirketler, bağımsız denetimlerle uygulamalarını düzenli olarak denetletmeli ve sonuçlarını kamuoyuyla paylaşmalıdırlar. Kullanıcılara verileri üzerinde daha fazla kontrol ve yönetim yetkisi vermelidirler (örneğin, veri silme, erişim veya düzeltme hakları). Etik kurullar ile şirket içinde güçlü kurallar oluşturmalı ve uygulanabilir politikalar benimsemelidirler.”
Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.
Source:
Yapay zekanın mutlak doğruyu söylediği inancı çatırdıyor
Elon Musk’ın sahibi olduğu yapay zeka şirketi xAI tarafından geliştirilen ve X kullanıcılarının çeşitli görüşleri teyit etmek için sıklıkla kullandığı sohbet botu Grok, son günlerde verdiği küfür ve hakaret içerikli yanıtlarıyla dünyanın gündemine oturdu.
Grok”un yanlı ve hakaret içeren yanıtlarının ardından bazı kullanıcılar tarafından “mutlak doğru” olarak kabul edilen yapay zekaların güvenilirliği de yeniden gündeme geldi.
AA muhabirine konuyla ilgili açıklamalarda bulunan İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zeka Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, ister yapay zeka tarafından verilsin, ister dijital dünyada yer alsın her bilginin teyide muhtaç olduğunu söyledi.
Özdemir, “İnsandan insana aktarılan bilgi bile teyide muhtaçken yapay zekaya körü körüne inanmak çok romantik bir yaklaşım. Çünkü bu makine de en nihayetinde bir başka kaynaktan besleniyor. Nasıl ki dijitalde bulunan bir bilgiye teyit etmeden inanmamak gerekiyorsa yapay zekanın da yanlış bilgilerden öğrenebileceğini unutmamak gerekir.” şeklinde konuştu.
Özdemir, yapay zekaya insanların çok kısa sürede güven duyduğunu ve bunun yanlış olduğunu belirterek, “İnsanın manipülasyon yeteneği, insanın duyduğu şeyi farklı aktarma yeteneği ya da insanın kendi çıkarları doğrultusunda bir şeyi bambaşka bir hale getirerek aktarması çok bilindik bir süreç. İnsan bunu belli bir niyet ve belli bir amaç uğruna yapıyor. Yapay zeka bunu bir niyet ya da amaç uğruna yapıyor mu diye soracak olursak bunun cevabı hayır. En nihayetinde yapay zeka kendisine sağlanan kaynaklardan öğrenen bir makine.” değerlendirmesinde bulundu.
“Yapay zeka yanlış veya yanlı eğitilmiş olabilir”
Yapay zekanın tıpkı çocuklar gibi kendisine verileni öğrenen bir yapıda olduğuna değinen Özdemir, nereden ve nasıl beslendiği belli olmayan yapay zekalara güvenilemeyeceğinin altını çizdi.
Özdemir, “Yapay zeka yanlış veya yanlı eğitilmiş olabilir. Günün sonunda yapay zekâlar da itibar yok edici silahlar olarak veya toplumları manipüle etmek için kullanılabilirler.” ifadelerini kullandı.
Özdemir, Grok”un hakaret içerikli cevapları sonrası yapay zekaların kontrolden çıkması endişelerine dair bilgi vererek, “Yapay zekayı kontrol etmek mümkün mü? Hayır değil. IQ seviyesi bu kadar hızlı ilerleyen bir şeyi kontrol edeceğimizi düşünmek çok doğru değil. Onu bir varlık olarak kabul etmeliyiz. Onunla bir uzlaşma, iletişim, ve yetişmesi için doğru bir yol bulmak zorundayız.” dedi.
“Yapay zekadan değil öncelikle ahlaklı davranmayan insandan korkmak gerekir”
Yapay zekanın nasıl kontrolden çıktığına dair örnekler veren Özdemir, sözlerini şöyle sürdürdü:
“2016 yılında Microsoft”un meşhur Tay deneyi vardı. Tay aslında Grok”un ya da üretken yapay zekânın belki ilkel versiyonu olarak kabul edilebilir. Makine aslında ilk başlarda insanlığa karşı olumsuz düşüncelere sahip değilken 24 saat içerisinde kendisiyle sohbet eden Amerikalılardan kötülüğü, soykırımı ve ırkçılığı öğrendi.
Hatta 24 saat dolmadan attığı tweetler arasında “Keşke siyahileri çocuklarıyla birlikte bir toplama kampına koysak da kurtulsak.” demeye başladı. Ya da o dönemki Amerika Meksika sorununa atıfta bulunacak şekilde Meksika”ya bir duvar örülmesi gerektiğini tavsiye etti. Bunu Tay kendi kendisine icat etmedi. Bunu insanlardan öğrendi. Yapay zekadan değil öncelikle ahlaklı davranmayan insandan korkmak gerekir.”
Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.
Source:
Komisyon harekete geçti! Grok soruşturmasına yakın takip
TBMM Yapay Zeka Araştırma Komisyonu Başkanı ve AK Parti Eskişehir Milletvekili Fatih Dönmez, Ankara Cumhuriyet Başsavcılığınca sosyal medya platformu X”in yapay zeka uygulaması “Grok” programıyla ilgili başlatılan soruşturmaya ilişkin, “Komisyonumuz da bu süreci yakından takip etmekte, hazırlanacak kapsamlı raporla gerekli yasal altyapının oluşturulmasına katkı sunmaktadır. Amacımız, ülkemizde yenilikçi teknolojileri desteklerken olası toplumsal zararların önüne geçmektir.” dedi.AA muhabirine açıklamada bulunan Dönmez, son günlerde yaygın şekilde kullanılan bir yapay zeka ürünüyle ilgili yaşanan sorunların, teknolojinin hukuk ve etikle uyumlu şekilde geliştirilmesi gerektiğini bir kez daha gösterdiğine işaret etti.Bu alanda hem kullanıcı haklarını hem de kamu güvenliğini koruyacak sağlam çerçeveler oluşturmanın kritik önem taşıdığını ifade eden Dönmez, bu doğrultuda, şeffaflık, denetlenebilirlik ve hesap verebilirlik ilkelerine dayalı düzenlemeler yapılabileceğini vurguladı.Dönmez, “Ayrıca yapay zeka ürünlerinin geliştirilmesi ve kullanılması süreçlerinde etik kurulların rolü güçlendirilmelidir. TBMM bünyesinde kurulan komisyonumuz da bu süreci yakından takip etmekte, hazırlanacak kapsamlı raporla gerekli yasal altyapının oluşturulmasına katkı sunmaktadır. Amacımız, ülkemizde yenilikçi teknolojileri desteklerken olası toplumsal zararların önüne geçmektir.” diye konuştu.- “RAPOR TAMAMLANARAK MECLİSİMİZİN AÇILMASIYLA BİRLİKTE MECLİS BAŞKANLIĞINA SUNULACAK”Fatih Dönmez, komisyonun son toplantısını gerçekleştirdiğini anımsatarak, rapor yazım çalışmalarına ilişkin bilgi de verdi.Rapor yazım sürecinde kamu ve özel sektörden pek çok kurumun yanı sıra ilgili uzman kişilerden görüş aldıklarını ve kapsamlı anketler gerçekleştirdiklerini anlatan Dönmez, “Bu çalışmaların sonucunda raportörlerimiz kısa süre içinde taslak nihai raporu tamamlayacaktır. Ardından komisyon üyelerimizin de görüş ve önerileri alınacak, sonrasında rapor tamamlanarak Meclisimizin sonbahar döneminde açılmasıyla birlikte Meclis Başkanlığına sunulacaktır.” ifadesini kullandı.Raporun, yapay zeka teknolojilerinin Türkiye”deki etkilerini çok yönlü ele alan kapsamlı bir çalışma olduğunu vurgulayan Dönmez, raporda, hem fırsatları hem de riskleri değerlendirdiklerini; toplumsal, hukuki, ekonomik ve etik boyutlara ilişkin detaylı analizlere yer verdiklerini kaydetti.Bugünü olduğu kadar geleceği de gözeten vizyoner bir yaklaşım benimsediklerini dile getiren Dönmez, “Raporumuz, kamu politikalarına yön verecek nitelikte somut öneriler içerecek ve bundan sonra yapılması gereken mevzuat değişikliklerine sağlam bir temel oluşturacaktır.” bilgisini paylaştı.Nihai metin tamamlandığında kamuoyuyla şeffaf bir şekilde paylaşacaklarını aktaran Dönmez, “Amacımız, Türkiye”nin bu alanda güçlü, güvenli ve rekabetçi bir konumda olmasına katkıda bulunmaktır.” sözlerini sarf etti.
Source: Www.star.com.tr