Yes, those sections are what is required. All told:<br><ul><li>NFC and NKFC are defined in Section 5 of UAX#15 (<a href="http://unicode.org/reports/tr15/#Specification">http://unicode.org/reports/tr15/#Specification</a>), which:<br>
</li><ul><li>references Canonical Decomposition</li><li>defines the composition processes<br></li></ul><li>Canonical Decomposition is defined on p 96 of U5.0</li><ul><li><i>D68 Canonical decomposition: The decomposition of a character that results from recursively applying the canonical mappings found in the Unicode Character Database and those described in Section 3.12, Conjoining Jamo Behavior, until no characters can be further decomposed, and then reordering nonspacing marks according to Section 3.11, Canonical Ordering Behavior.</i></li>
</ul><li>Data<br></li><ul><li>UnicodeData.txt</li><li>CompositionExclusion.txt</li></ul></ul>
Mark<br><br><div style="margin-left: 40px;">Note: There is still final editorial work being done on
<a href="http://www.unicode.org/reports/tr15/tr15-28.html">http://www.unicode.org/reports/tr15/tr15-28.html</a>, so if you have any
suggestions for editorial clarifications, now&#39;s the time!<br></div>
<br>
 <br><br><div class="gmail_quote">On Feb 20, 2008 12:04 AM, Harald Alvestrand &lt;<a href="mailto:harald@alvestrand.no">harald@alvestrand.no</a>&gt; wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Kenneth Whistler skrev:<br><div class="Ih2E3d">&gt; Patrik asked:<br>&gt;<br>&gt;<br>&gt;&gt; Is there a different specification of the normalization algorithm for<br>&gt;&gt; Hangul than what now exists, an algorithm specified that is based upon<br>
&gt;&gt; the fact one should know how integer arithmetic in Java works?<br>&gt;&gt;<br>&gt;<br>&gt; Well, the specification of exactly how Hangul decomposition<br>&gt; and (re)composition works is in Section 3.12 of the standard,<br>
&gt; pp. 121 - 123. That doesn&#39;t depend on integer arithmetic in Java.<br>&gt; All you do is plug the decomposition and composition rules<br>&gt; for Hangul into the relevant part of the UAX #15 normalization<br>&gt; that requires decomposition or composition of strings.<br>
&gt;<br></div>Ken,<br><br>for those of us who don&#39;t have the whole Unicode standard in their<br>brains at once:<br>The NFKC and NFC algorithms depend on:<br><br>- Decomposition as described in the standard section 3.5<br>
 &nbsp;- UnicodeData.txt for its values<br> &nbsp;- section 3.11 for the canonical reordering of combining marks<br> &nbsp;- section 3.12 for decomposition of Hangul<br>- Composition as described in UAX#15 section 5<br> &nbsp;- UnicodeData.txt for its values<br>
 &nbsp;- CompositionExclusion.txt for exceptions<br> &nbsp;- section 3.12 of the standard for Hangul composition<br><br>Is that the complete set of what one needs to read to implement NFKC and<br>NFC, or is there Yet Another Data File Or Algorithm we have overlooked?<br>
<div class="Ih2E3d">&gt; Normally, of course, you just depend on a library API that<br>&gt; does the normalization for you (including the proper handling<br>&gt; of Hangul).<br></div>Irrelevant for the purpose of writing a standard. Very useful for<br>
testing it.<br><font color="#888888"><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Harald<br></font><div><div></div><div class="Wj3C7c">_______________________________________________<br>Idna-update mailing list<br><a href="mailto:Idna-update@alvestrand.no">Idna-update@alvestrand.no</a><br>
<a href="http://www.alvestrand.no/mailman/listinfo/idna-update" target="_blank">http://www.alvestrand.no/mailman/listinfo/idna-update</a><br></div></div></blockquote></div><br><br clear="all"><br>-- <br>Mark