Commit e67558d7 authored by Rita-Josy Haddoub's avatar Rita-Josy Haddoub

Update README.md

parent 87948408
......@@ -35,7 +35,7 @@ I did not carry on to explore Tensorflow and configure my own GAN, but rather I
لم اكمل مسعايَ هذا و الذي كان سيؤدي بي الى استكشاف الTensorflow لتهيئة و ترتيب الGAN الخاص بي، لكنني بدأت و درّبت نموذجاً خاصاً بي عن طريق الpix2pix و الذي يحتوي على خصائص معدَّة مسبقاً، و ذلك بإستخدام معرفتي لبرنامج Python من خلال المواد الخاصة بالتعلّم الآلي التي اخترتها في سنوات دراستي. مع بعض التعديلات، حافظت على فكرتي القائمة على تحويل البيانات المدخلة الى نتيجة ملموسة. بدلاً من طباعة الGAN بشكل اسمنتيّ ثلاثي الابعاد، ذهبت الى معمل لتصنيع قوالب الطوب و صنّعت (Molded) قالب اسمنت بنفسي و ذلك بإتباع تفاصيل التصميم الناتج عن النموذج الذي تحصّلت عليه من خلال التعلّم الآلي. فكرة تحويل شبكة عصبيّة (Neural Network) الى "أسمنت" يبقى كما كان مخططاً له منذ البداية لكن المعالجة من خلال بنائي و نحتي لتصميم خاص بي يحتاج الى تعاون اكبر مع الشبكة بدلاً من جعل المشروع مشَغّل آلياً بالكامل.
# Data
# Data (البيانات)
![Screen_Shot_2020-06-20_at_10.33.26_PM](/uploads/0fb2606a2fe26eb1e8ebe275e8e33cd2/Screen_Shot_2020-06-20_at_10.33.26_PM.png)
The Beton Dataset is a collection of self-taken photos of _Béton_ spontaneously found throughout the city of Beirut and its outskirts.
......@@ -46,6 +46,15 @@ The power of GANs to learn the distribution of all of its input data, and to fi
My raw image dataset currently consists of about only 40 original images. The model however has been trained on a total of 274 images, consisting of re-sized, cropped, rotated, and transformed adjustments from the original dataset. I then ran a batch process to rescale the images to 256x256. The method used for training is ‘inpainting’ from pix2pix-tensorflow.
Creating the Beton dataset manually was by choice firstly because data mining is restricted to digitized and transparent information, and the definition I see _Béton_ in falls out of its categorization within construction-sites. The dataset grew as i came across different uses of _Béton_, and it was never by intention to search for them. I did also receive images by text from others who would come across one. Getting the data was a very material and lived-in process.
مجموعة بيانات ال"أسمنت" تمّ تصويرها و اخذها بشكل عفويّ عبر ايجاد قوالب من الBéton في مختلف مناطق و شوارع مدينة بيروت.
أخذ الصور عبر الانترنت من مجموعات بيانات كبيرة هي الطريقة المثلى لتجميع الصور التي تناسب الGANS. التعلّم العميق (Deep Learning) يعمل بشكل متوازٍ مع البيانات الضخمة (Big Data)، فهو يستخرج معلومات مهمّة ذا معنى من خلال البحث في كمّيات كبيرة من المعلومات. Memo Atkins Deep Meditations يُظهر الGANS كوسيلة فعّالة للتعبير الابداعي حيث مجموعة صوَرِه تشمل كل شيء موجود على الانترنت: يتمّ اختيار الصور و استخراجها من Flickr حيث تحمل عدّة توصيفات (Tags) كالحبّ، الحياة، الايمان، الخ...
قوّة و فعالية الGANS في تعلّم كيفيّة توزيع بياناته المُدخلة، و ايجاد مختلف الاشكال و التراكيب و الانماط عبر استخدام شبكته اللامتناهية للطرق المحتملة يجعل منه اداة مذهلة تساعد على فهم البيانات الضخمة بشكل افضل و يميّزه عن الخوارزميات (Algorithms) الاخرى.
مجموعة بياناتي و صوري لا تشكّل حالياً اكثر من 40 صورة اصليّة. لكنّ النموذج قد تمّ تدريبه بإستخدام 274 صورة، هي كلّها نتيجة تغيير حجم و تعديل و قلب الصور الاصليّة لمجموعة البيانات. فيما بعد، قمت بعملية تغيير حجم الصور الى 256x256. الطريقة التي اعتُمِدت في هذه العمليّة هي 'inpainting' من pix2pix-tensorflow.
خلق مجموعة بيانات ال"اسمنت" يدويّاً كان قد تمّ اختياره اوّلاً بسبب طبيعة البحث و التنقيب عن البيانات (Data Mining) القائمة على العمل حصرياً مع المعلومات الرقميّة و الشفّافة، و ثانيّاً بسبب رؤيتي للتعريف بال"أسمنت" خارجاً عن التصنيف التقليدي الذي تضعه ورشات البناء. مجموعة البيانات كبرت في خلال عملي على المشروع حيث وجدّت عدّة استخدامات للBéton و ذلك من دون التقصّي عمداً عن هذه الاختلافات للإستعمال. بالإضافة الى ذلك، تلقّيت صوراً من اشخاص آخرين حيث كانوا يجدون ال"أسمنت" و يرسلونه لي عبر رسائل نصيّة و الكترونيّة. تجميع الصور و البيانات كانت عمليّة ممتعة
و مشوّقة جدّاً.
# Latent Variables and _Béton_
From Classification algorithms that distribute entities into decision boundaries, to optimization models that maximize the objective function. Information is fed to the machine in hope that it can find relevant features, when however, the network is also demanding features of relevant information. In this case, humans and machines must deal with the same problem.
In a recent book on Machine Learning titled “Machine Learners” Adrian Mackenzie writes
......
Markdown is supported
0%
or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment