Yiğit, Gülsüm
Loading...
Name Variants
Y.,Gulsum
Gülsüm YIĞIT
Yiğit, GÜLSÜM
Gülsüm Yiğit
GÜLSÜM YIĞIT
G. Yiğit
Yiğit,G.
Y., Gülsüm
Yigit,Gulsum
YIĞIT, Gülsüm
Yiğit, Gülsüm
Gulsum, Yigit
Yiğit, G.
Yigit,G.
Y., Gulsum
YIĞIT, GÜLSÜM
Yigit, Gulsum
Gülsüm YIĞIT
Yiğit, GÜLSÜM
Gülsüm Yiğit
GÜLSÜM YIĞIT
G. Yiğit
Yiğit,G.
Y., Gülsüm
Yigit,Gulsum
YIĞIT, Gülsüm
Yiğit, Gülsüm
Gulsum, Yigit
Yiğit, G.
Yigit,G.
Y., Gulsum
YIĞIT, GÜLSÜM
Yigit, Gulsum
Job Title
Araş. Gör.
Email Address
gulsum.yigit@khas.edu.tr
ORCID ID
Scopus Author ID
Turkish CoHE Profile ID
Google Scholar ID
WoS Researcher ID
Scholarly Output
10
Articles
3
Citation Count
6
Supervised Theses
0
9 results
Scholarly Output Search Results
Now showing 1 - 9 of 9
Conference Object Citation Count: 1Improving Diabetic Retinopathy Detection Using Patchwise CNN with biGRU Model(Institute of Electrical and Electronics Engineers Inc., 2023) Darıcı, Muazzez Buket; Yiğit, GülsümThis study addresses Diabetic Retinopathy (DR), a diabetes complication that can lead to vision loss if not promptly diagnosed and treated. Recent advances in deep learning have shown promising results in detecting DR from retinal images. The study introduces a novel patch-based CNN-biGRU model for DR detection. The proposed model extracts patches from retinal images employing a sliding window strategy and then uses a Convolutional Neural Network (CNN) architecture to extract features from each patch. The features extracted from each patch are then concatenated, and a 4-layer bidirectional Gated Recurrent Unit (biGRU) is applied to predict the whole image. We assessed the proposed model on a publicly available dataset named APTOS 2019 Blindness Detection and achieved an accuracy of 73.5%, outperforming existing state-of-the-art approaches. The given patch-based CNN model can improve the accuracy of DR detection and aims to assist ophthalmologists in making more accurate diagnoses. © 2023 IEEE.review-article.listelement.badge Citation Count: 0Derin Öğrenme Modellerinde Mahremiyet ve Güvenlik Üzerine Bir Derleme Çalışması(2021) Yiğit, Gülsüm; Yiğit, GülsümSon dönemlerde derin öğrenmedeki devrim niteliğindeki gelişmeler ile birlikte yapay zekaya yönelik beklentiler gün geçtikçe artmaktadır. Konuşma tanıma, doğal dil işleme (NLP), görüntü işleme gibi birçok alanda etkin bir şekilde uygulanabilen bir araştırma alanı olan derin öğrenme klasik makine öğrenmesi ile karşılaştırıldığında daha yüksek başarı göstermektedir. Derin öğrenme ile geliştirilen modellerde eğitim ve tahminleme sırasında büyük miktarda veri kullanılmakta ve kullanılan veriler kişisel verilerden oluşabilmektedir. Bu verilerin işlenmesi sırasında kişisel verilerin korunması kanununa (KVKK) aykırı olmaması oldukça önemlidir. Bu nedenle verilerin gizliliği ve güvenliğinin sağlanması oldukça önemli bir husustur. Bu çalışmada, derin öğrenme modelleri geliştirilirken yaygın kullanılan mimariler verilmiştir. Verilerin gizliliği ve güvenliğini artırmak için literatürde yaygın olarak karşılaşılan güvenli çok partili hesaplama, diferansiyel mahremiyet, garbled devre protokolü ve homomorfik şifreleme araçları özetlenmiştir. Çeşitli sistem tasarımlarında kullanılan bu araçların yer aldığı güncel çalışmalar taranmıştır. Bu çalışmalar, derin öğrenme modelinin eğitim ve tahminleme aşamasında olmak üzere iki kategoride incelenmiştir. Literatürdeki çeşitli modeller üzerinde uygulanabilen güncel saldırılar ve bu saldırılardan korunmak amacıyla geliştirilen yöntemler verilmiştir. Ayrıca, güncel araştırma alanları belirlenmiştir. Buna göre, gelecekteki araştırma yönü kriptografik temelli yöntemlerin karmaşıklığının azaltılması ve geliştirilen modelin güvenilirliğini belirlemek için çeşitli ölçme ve değerlendirme yöntemlerinin geliştirilmesi yönünde olabilir.Article Citation Count: 0Data Augmentation with In-Context Learning and Comparative Evaluation in Math Word Problem Solving(Springer, 2024) Yiğit, Gülsüm; Amasyali,M.F.Math Word Problem (MWP) solving presents a challenging task in Natural Language Processing (NLP). This study aims to provide MWP solvers with a more diverse training set, ultimately improving their ability to solve various math problems. We propose several methods for data augmentation by modifying the problem texts and equations, such as synonym replacement, rule-based: question replacement, and rule based: reversing question methodologies over two English MWP datasets. This study extends by introducing a new in-context learning augmentation method, employing the Llama-7b language model. This approach involves instruction-based prompting for rephrasing the math problem texts. Performance evaluations are conducted on 9 baseline models, revealing that augmentation methods outperform baseline models. Moreover, concatenating examples generated by various augmentation methods further improves performance. © The Author(s), under exclusive licence to Springer Nature Singapore Pte Ltd. 2024.Article Citation Count: 3Assessing the impact of minor modifications on the interior structure of GRU: GRU1 and GRU2(Wiley, 2022) Yiğit, Gülsüm; Amasyali, Mehmet FatihIn this study, two GRU variants named GRU1 and GRU2 are proposed by employing simple changes to the internal structure of the standard GRU, which is one of the popular RNN variants. Comparative experiments are conducted on four problems: language modeling, question answering, addition task, and sentiment analysis. Moreover, in the addition task, curriculum learning and anti-curriculum learning strategies, which extend the training data having examples from easy to hard or from hard to easy, are comparatively evaluated. Accordingly, the GRU1 and GRU2 variants outperformed the standard GRU. In addition, the curriculum learning approach, in which the training data is expanded from easy to difficult, improves the performance considerably.review-article.listelement.badge Citation Count: 0Soru Cevaplama Sistemleri Üzerine Detaylı Bir Çalışma: Veri Kümeleri, Yöntemler ve Açık Araştırma Alanları(2021) Yiğit, Gülsüm; Amasyalı, Mehmet FatihSoru Cevaplama (QA) sistemleri, kullanıcıların doğal dilde sordukları sorulara belge veya bağlantıları listelemek yerine doğrudan cevap almalarını sağlayan sistemlerdir. Bu çalışmada, QA sistemlerinde yaygın kullanılan veri kümeleri tanıtılmış ve çeşitli özelliklere göre karşılaştırılmıştır. Ayrıca, QA alanındaki diğer çalışmalardan farklı olarak bu çalışmada son yıllarda literatürde yer alan QA sistemlerinin arkasında kullanılan yöntemlere odaklanılmıştır. Bu yöntemler dört farklı grupta ele alınmış olup literatürdeki güncel çalışmaları ve teknolojileri içermektedir. Bu modeller kullanılan teknikler, harici bilgi kaynaklarının veya dil modelinin kullanılıp kullanılmadığı gibi faktörlere göre karşılaştırılmıştır. Dikkat mekanizmasının, dil modellerinin, çizge işleyen ağların, harici bilgi kaynaklarının, kolektif öğrenmenin ve derin öğrenme mimarilerinin QA sistemlerinin başarısı üzerinde genel olarak olumlu etkisi olduğu görülmüştür. Ayrıca, bu çalışmada QA sistemlerinin günümüzdeki açık araştırma alanları ve olası çözüm yolları belirlenerek gelecekteki QA sistemleri için önerilerde bulunulmuştur. Gelecekteki araştırma alanları olarak yeterli veriye sahip olmayan diller üzerindeki sistemler, birden fazla dil üzerinde çalışabilen sistemler, çok sayıda bilgi kaynağının kullanılmasının gerekli olduğu sistemler ve karşılıklı konuşmaya dayalı sistemler öne çıkmaktadır.Conference Object Citation Count: 1Exploring the Benefits of Data Augmentation in Math Word Problem Solving(Institute of Electrical and Electronics Engineers Inc., 2023) Yiğit, Gülsüm; Amasyali,M.F.Math Word Problem (MWP) is a challenging Natural Language Processing (NLP) task. Existing MWP solvers have shown that current models need to generalize better and obtain higher performances. In this study, we aim to enrich existing MWP datasets with high-quality data, which may improve MWP solvers' performances. We propose several data augmentation methods by applying minor modifications to the problem texts and equations of English MWPs datasets which contain equations with one unknown. Extensive experiments on two MWPs datasets have shown that data created by augmented methods have considerably improved performance. Moreover, further increasing the training samples by combining the samples generated by the proposed augmentation methods provides further performance improvements. © 2023 IEEE.Conference Object Citation Count: 0A Siamese Network-Based Approach for Autism Spectrum Disorder Detection with Dual Architecture(Institute of Electrical and Electronics Engineers Inc., 2023) Yiğit, Gülsüm; Darıcı, Muazzez BuketAutism Spectrum Disorder (ASD) is a sophisticated neuro-developmental condition impacting numerous children. Early detection of ASD is crucial to implement suitable treatments to improve the daily activities of people with ASD. This paper introduces a system for ASD detection using facial images. The proposed model presents a unique system inspired by Siamese networks. Unlike traditional Siamese networks focusing on input pairs, our model leverages architectural pairs for feature combinations. During training, we combine features learned from different or the same architectures. This enables information transfer and improves the model's capture of comprehensive patterns. Experimental results on the 2940 facial images dataset demonstrate the effectiveness of our system, which exhibits improved accuracy compared to using individual architectures. When (ResNet50, VGG16) architecture pairs are employed in the proposed approach, the highest performance is obtained with an accuracy of 78.57%. Leveraging the strengths of multiple architectures, our model provides a comprehensive and robust representation of input data, leading to improved performance. © 2023 IEEE.Conference Object Citation Count: 1Ask me: A Question Answering System via Dynamic Memory Networks(Institute of Electrical and Electronics Engineers Inc., 2019) Yiğit, Gülsüm; Amasyalı, Mehmet FatihMost of the natural language processing problems can be reduced into a question answering problem. Dynamic Memory Networks (DMNs) are one of the solution approaches for question answering problems. Based on the analysis of a question answering system built by DMNs described in [1], this study proposes a model named DMN∗ which contains several improvements on its input and attention modules. DMN∗ architecture is distinguished by a multi-layer bidirectional LSTM (Long Short Term Memory) architecture on input module and several changes in computation of attention score in attention module. Experiments are conducted on Facebook bAbi dataset [2]. We also introduce Turkish bAbi dataset, and produce increased vocabulary sized tasks for each dataset. The experiments are performed on English and Turkish datasets and the accuracy performance results are compared by the work described in [1]. Our evaluation shows that the proposed model DMN∗ obtains improved accuracy performance results on various tasks for both Turkish and English.Article Citation Count: 0Enhancing multiple-choice question answering through sequential fine-tuning and Curriculum Learning strategies(Springer London Ltd, 2023) Yiğit, Gülsüm; Amasyali, Mehmet FatihWith the transformer-based pre-trained language models, multiple-choice question answering (MCQA) systems can reach a particular level of performance. This study focuses on inheriting the benefits of contextualized language representations acquired by language models and transferring and sharing information among MCQA datasets. In this work, a method called multi-stage-fine-tuning considering the Curriculum Learning strategy is presented, which proposes sequencing not training samples, but the source datasets in a meaningful order, not randomized. Consequently, an extensive series of experiments over various MCQA datasets shows that the proposed method reaches remarkable performance enhancements than classical fine-tuning over picked baselines T5 and RoBERTa. Moreover, the experiments are conducted on merged source datasets, and the proposed method achieves improved performance. This study shows that increasing the number of source datasets and even using some small-scale datasets helps build well-generalized models. Moreover, having a higher similarity between source datasets and target also plays a vital role in the performance.