วันจันทร์ที่ 26 ธันวาคม พ.ศ. 2565

How to find if journal is indexed in ISI.

 Web of Science (Previously known as Thomson Reuters/ISI)

  1. Go to http://mjl.clarivate.com/

  2. In the search field, write the full journal name to search against “Web of Science Core Collection”.

  3. In coverage, if you see Science Citation Index Expanded (SCIE), this means that the journal is indexed.

  4. A lower level of indexing is Emerging Sources Citation Index (ESCI). While these journals still did not receive an impact factor until the next year, they did contribute citations to the calculation of other journals' impact factors.

Introduction:
  1. https://www.thailibrary.in.th/2022/11/01/6-core-collection-web-of-science/

วันอังคารที่ 20 ธันวาคม พ.ศ. 2565

ChatGPT

 







By OpenAI.

It's a chatbot with extremely large knowledge base. Anyway, its capabilities are comparable to remember and understanding and application (e.g. it can do coding) abilities of human according to Bloom's model. ChatGPT cannot yet synthesize new knowledge and draw pictures as it supports only text recognition.

วันศุกร์ที่ 16 ธันวาคม พ.ศ. 2565

วันพฤหัสบดีที่ 8 ธันวาคม พ.ศ. 2565

คติสอนใจ

อดีตคือบทเรียน อนาคตคือความหวัง 

คนที่มีความสุขที่สุดคือคนที่ปล่อยวางได้มากที่สุด

ค่า JCI ไม่ใช่ JIF

By normalizing for different fields of research and their widely varying rates of publication and citation, the Journal Citation Indicator provides a single journal-level metric that can be easily interpreted and compared across disciplines.

The Journal Citation Indicator will be calculated for all journals in the Web of Science Core Collection™ – including those that do not have a Journal Impact Factor (JIF)™ – and published in the 2021 JCR in June. 

cf.https://clarivate.com/blog/introducing-the-journal-citation-indicator-a-new-field-normalized-measurement-of-journal-citation-impact/

วันอังคารที่ 18 ตุลาคม พ.ศ. 2565

วันอังคารที่ 4 ตุลาคม พ.ศ. 2565

Blynk

An Internet of things (IoT) company which provides a platform for building mobile (IOS and Android) applications that can connect electronic devices to the Internet and remotely monitor and control these devices.

There are three major components in the platform:

  • Blynk App - allows to you create amazing interfaces for your projects using various widgets we provide.

  • Blynk Server - responsible for all the communications between the smartphone and hardware. You can use our Blynk Cloud or run your private Blynk server locally. It’s open-source, could easily handle thousands of devices and can even be launched on a Raspberry Pi.

  • Blynk Libraries - for all the popular hardware platforms - enable communication with the server and process all the incoming and outcoming commands.

















--Cf. https://docs.blynk.cc/

วันเสาร์ที่ 24 กันยายน พ.ศ. 2565

วันพฤหัสบดีที่ 22 กันยายน พ.ศ. 2565

วันจันทร์ที่ 5 กันยายน พ.ศ. 2565

Latent variable, Latent Dirichlet Allocation (LDA)

https://towardsdatascience.com/latent-dirichlet-allocation-lda-9d1cd064ffa2

A latent variable in machine learning refers to a variable that is not directly observed or measured but is inferred from the observable data. These variables represent hidden factors that influence the observed data and help explain patterns or relationships within that data.

### Examples and Applications:

1. **Principal Component Analysis (PCA):** 

   - In PCA, the principal components are latent variables that capture the directions of maximum variance in the data. These components summarize the data by reducing its dimensionality while preserving as much information as possible.

2. **Hidden Markov Models (HMM):** 

   - In HMMs, the hidden states are latent variables that represent the underlying process generating the observed sequence of data, such as the true emotional state of a person inferred from their speech or behavior.

3. **Latent Dirichlet Allocation (LDA):**

   - In LDA, a topic model, the latent variables are the topics that explain the observed words in a collection of documents. Each document is assumed to be a mixture of these topics.

4. **Autoencoders:**

   - In autoencoders, the encoded representation (bottleneck layer) is a latent variable that captures the most essential features of the input data, which is then used to reconstruct the original input.


วันพฤหัสบดีที่ 30 มิถุนายน พ.ศ. 2565

วันพฤหัสบดีที่ 16 มิถุนายน พ.ศ. 2565

AI Table

 https://mindsdb.com/

https://youtu.be/HMn1jTIbOTI

It integrates machine learning model into RDB to enable query of predicted value.

วันเสาร์ที่ 11 มิถุนายน พ.ศ. 2565

วันเสาร์ที่ 28 พฤษภาคม พ.ศ. 2565

วันจันทร์ที่ 23 พฤษภาคม พ.ศ. 2565

Cloud native platform

An approach to build (link&compile) and run applications on cloud.

https://ashley-mangtani.medium.com/everything-you-need-to-know-about-cloud-native-platforms-e15004e3a57a













Cloud native technologies focus on minimizing users' operational burden. Frequently, cloud-native applications are built as a set of microservices (REST API) that run in Docker containers, and may be orchestrated in Kubernetes and managed and deployed using DevOps and Git CI workflows (although there is a large amount of competing open source that supports cloud-native development). The advantage of using Docker containers is the ability to package all software needed to execute into one executable package.

สัปปุริสทานสูตร

  [๑๔๘] ดูกรภิกษุทั้งหลาย สัปปุริสทาน ๕ ประการนี้ ๕ ประการเป็นไฉน คือ

สัตบุรุษย่อมให้ทานด้วยศรัทธา ๑ 
ย่อมให้ทานโดยเคารพ ๑ 
ย่อมให้ทานโดยกาลอันควร ๑ 
เป็นผู้มีจิตอนุเคราะห์ให้ทาน ๑ 
ย่อมให้ทานไม่กระทบตนและผู้อื่น ๑ 

ดูกรภิกษุทั้งหลาย สัตบุรุษครั้นให้ทานด้วยศรัทธาแล้ว 
ย่อมเป็นผู้มั่งคั่ง 
มีทรัพย์มาก 
มีโภคะมาก 
และเป็นผู้มีรูปสวยงาม 
น่าดู น่าเลื่อมใส
ประกอบด้วยผิวพรรณงามยิ่งนัก 
ในที่ที่ทานนั้นเผล็ดผล (บังเกิดขึ้น) 

ครั้นให้ทานโดยเคารพแล้ว 
ย่อมเป็นผู้มั่งคั่ง 
มีทรัพย์มาก 
มีโภคะมาก 
และเป็นผู้มีบุตรภรรยา 
ทาส คนใช้หรือคนงาน 
เป็นผู้เชื่อฟัง 
เงี่ยโสตลงสดับคำสั่ง 
ตั้งใจใคร่รู้
ในที่ที่ทานนั้นเผล็ดผล 

ครั้นให้ทานโดยกาลอันควรแล้ว 
ย่อมเป็นผู้มั่งคั่ง 
มีทรัพย์มาก 
มีโภคะมาก 
และย่อมเป็นผู้มีความต้องการที่เกิดขึ้นตามกาลบริบูรณ์ 
ในที่ที่ทานนั้นเผล็ดผล 

ครั้นเป็นผู้มีจิตอนุเคราะห์ให้ทานแล้ว ย่อมเป็นผู้มั่งคั่ง 
มีทรัพย์มาก 
มีโภคะมาก 
และเป็นผู้มีจิตน้อมไปเพื่อบริโภคกามคุณ ๕ สูงยิ่งขึ้น
ในที่ที่ทานนั้นเผล็ดผล 

ครั้นให้ทานไม่กระทบตนและผู้อื่นแล้ว 
ย่อมเป็นผู้มั่งคั่ง 
มีทรัพย์มาก มีโภคะมาก 
และย่อมเป็นผู้มีโภคทรัพย์ไม่มีภยันตรายมาแต่ที่ไหนๆคือ 
จากไฟ 
จากน้ำ 
จากพระราชา 
จากโจร 
จากคนไม่เป็นที่รัก 
หรือจากทายาทในที่ที่ทานนั้นเผล็ดผล 
ดูกรภิกษุทั้งหลาย สัปปุริสทาน ๕ ประการนี้แล ฯ

พระไตรปิฎก เล่มที่ ๒๒ พระสุตตันตปิฎก เล่มที่ ๑๔ อังคุตตรนิกาย ปัญจก-ฉักกนิบาต


วันศุกร์ที่ 20 พฤษภาคม พ.ศ. 2565

Cloud-Edge-End vs Cloud-Fog-Edge

 Cloud-Edge-End architecture :

With the increasing production of Big Data and due to latency, privacy, and other concerns, a Cloud-Edge-End computing paradigm has emerged in order to facilitate Big Data processing in proper places. This infrastructure seamlessly integrates hardware and software resources across multiple computing tiers, from the End to Edge, and to the Cloud. The flexibility of hierarchical cloud-edge-end computing architecture makes possible to decide whether data processing and analysis—including data cleaning, machine learning training, and decision making—applied to data coming from end sensors is carried out directly at the end device in-place, the computing edge or uploaded to the cloud infrastructures with higher computation capabilities. Therefore, advanced cloud–edge–end computing architectures needs to provide the kind of support that IoT applications need to deploy data processing and analytic methods in a flexible, efficient and scalable way. (cf. https://www.journals.elsevier.com/journal-of-systems-architecture/call-for-papers/special-issue-on-cloud-edge-end-architecture-for-internet-of-things-applications-vsi-cloud-edge-end-iot)

So the term End refers to end devices and the term Edge refers to network edge.

However, the term Cloud-Fog-Edge is found more on Google.

วันพฤหัสบดีที่ 19 พฤษภาคม พ.ศ. 2565

Mobile cloud emulator

 A cloud service that emulates mobile OS. It's like a VM with mobile OS installed. Then VM can run on any computer platforms just like any cloud services. Examples include https://www.cloudemulator.net/

วันเสาร์ที่ 7 พฤษภาคม พ.ศ. 2565

Web 1.0-3.0

 


วันพุธที่ 4 พฤษภาคม พ.ศ. 2565

Open access books

 https://www.intechopen.com/books/10779

วันเสาร์ที่ 23 เมษายน พ.ศ. 2565

Semi-supervised learning

An approach to machine learning that combines a small amount of labeled data with a large amount of unlabeled data during training. 

ในส่วนของ unlabeled data จะถูกสร้าง label ให้โดยเทียบเคียงจาก labeled data โดยวิธี เช่น cluster assumption คืออยู่ใน cluster เดียวกันก็น่าจะมี label เดียวกัน

วันศุกร์ที่ 22 เมษายน พ.ศ. 2565

OpenText

 A licensed enterprise information management software ที่มีความสามารถทำ document classification ได้ แต่ผู้ใช้ต้องเลือก segment บนรูปเอกสารก่อนเพื่อใช้ทำ classification

วันเสาร์ที่ 19 มีนาคม พ.ศ. 2565

วันพฤหัสบดีที่ 10 มีนาคม พ.ศ. 2565

Google meet companion mode

สำหรับใช้โดยคนในห้องประชุมแบบ onsite ที่เข้าร่วมประชุม google meet แบบ hybrid คือมีบางคนประชุมแบบ remote ซึ่งต้องใช้ google meet ใน mode ปกติ

ทำให้ remote participants ได้ยินเสียงคนในห้องประชุมปกติ แต่คนในห้องประชุมจะไม่ได้ยินเสียงต้นที่ผ่านเข้าไปใน google meet companion mode ออกมากจากอุปกรณ์ของผู้เข้าร่วมประชุม onsite คนอื่นๆ ทำให้ไม่ echo (no voice feedback)

วันพฤหัสบดีที่ 3 มีนาคม พ.ศ. 2565

Reinforcement learning

There are many algorithms for reinforcement learning, please see https://en.wikipedia.org/wiki/Reinforcement_learning 

Well-known algorithm is Q-learning.







Reinforcement learning involves an agent, a set of states , and a set  of actions per state. By performing an action , the agent transitions from state to state. Executing an action in a specific state provides the agent with a reward (a numerical score).

Algorithm

After  steps into the future the agent will decide some next step. The weight for this step is calculated as , where  (the discount factor) is a number between 0 and 1 () and has the effect of valuing rewards received earlier higher than those received later (reflecting the value of a "good start").  may also be interpreted as the probability to succeed (or survive) at every step .

The algorithm, therefore, has a function that calculates the quality of a state–action combination:

.

Before learning begins,  is initialized to a possibly arbitrary fixed value (chosen by the programmer). Then, at each time  the agent selects an action , observes a reward , enters a new state  (that may depend on both the previous state  and the selected action), and  is updated. The core of the algorithm is a Bellman equation as a simple value iteration update, using the weighted average of the current value and the new information.

Cf. https://en.wikipedia.org/wiki/Q-learning#Deep_Q-learning

วันเสาร์ที่ 26 กุมภาพันธ์ พ.ศ. 2565

Temporal Convolutional Net (TCN)

 https://www.datasciencecentral.com/temporal-convolutional-nets-tcns-take-over-from-rnns-for-nlp-pred/

TCN vs RNN vs LSTM vs GRU: https://arxiv.org/pdf/1803.01271.pdf

Vs Transformer (used in LLM) (https://www.sabrepc.com/blog/deep-learning-and-ai/rnns-vs-lstm-vs-transformers) , (https://en.m.wikipedia.org/wiki/Transformer_(deep_learning_architecture)

====ChatGPT:====

What concept does Transformer use instead of loop as in lstm?

Transformers replace the recurrent loops used in LSTM (Long Short-Term Memory) networks with a mechanism called **self-attention** (or attention mechanism) that allows them to process input sequences in parallel, rather than sequentially.

In LSTMs, the input is processed one timestep at a time, which introduces dependencies between time steps. This sequential nature can make LSTMs slower for long sequences because they require processing each token in the sequence one after the other.

In contrast, the Transformer model (https://youtu.be/ZXiruGOCn9s?si=1WbEjOVKBUs4Z-_J) uses the following key components to avoid loops:

1. **Self-Attention Mechanism**: Each token in the input sequence attends to all other tokens in the sequence. This allows the model to capture dependencies between tokens regardless of their distance in the sequence, in a single step.

2. **Positional Encoding**: Since the Transformer does not have a natural way to process sequences in order (like LSTMs), it adds positional encodings to the input embeddings. These encodings allow the model to understand the position of each token in the sequence.

3. **Parallelization**: By using self-attention and positional encoding, Transformers process the entire sequence simultaneously, making them much faster and more efficient on modern hardware (especially for long sequences), as they can leverage parallelism more effectively than LSTMs.


What is token above?

In the context of natural language processing (NLP) and Transformers, a **token** is a unit of text that the model processes. Tokens can represent:

1. **Words**: In word-level tokenization, each word in a sentence is treated as a token. For example, in the sentence "I love programming," the tokens would be "I," "love," and "programming."

2. **Subwords**: In subword-level tokenization, words are split into smaller components, especially for rare or complex words. For example, the word "unbelievable" might be tokenized as "un," "believ," and "able."

3. **Characters**: In character-level tokenization, each individual character is treated as a token. For instance, the word "hello" would be tokenized into 'h,' 'e,' 'l,' 'l,' 'o.'

Tokens are the basic units the model works with. Before processing text, the model converts raw input text into tokens, which are then transformed into numerical representations (embeddings) for computation.

 

Does transformer use a sliding window like concept?

No, Transformers do not inherently use a **sliding window** concept like traditional sequence models or convolutional models. Instead, they rely on the **self-attention mechanism** to capture relationships between tokens across the entire input sequence.

However, in certain contexts where input sequences are very long, it can be computationally expensive to apply self-attention over the entire sequence. To address this, some **Transformer variants** introduce mechanisms that resemble the sliding window approach. Examples include:

1. **Sliding Attention (Local Attention)**: Some models limit the attention mechanism to a local window around each token, rather than attending to the entire sequence. This approach reduces the computational cost by focusing on nearby tokens, similar to how a sliding window would.

2. **Segmented Attention**: In models like **Longformer** and **BigBird**, self-attention is applied over smaller segments of the sequence (local windows) while maintaining some global attention to preserve connections across distant parts of the sequence.

3. **Reformer**: This model uses **locality-sensitive hashing** (LSH) to reduce the number of tokens that need to attend to each other, which mimics focusing attention within a smaller "window."

While the basic Transformer model does not use a sliding window, these adaptations help handle long sequences efficiently by introducing window-like behavior in the attention mechanism.